Ciencias mixtas Ciencias mixtas

Los secretos de las ciencias para
los que también son de letras

Entradas etiquetadas como ‘tecnología’

Los premios Breakthrough, más del siglo XXI que los Nobel

La fundación Breakthrough Prize, que concede los premios de ciencia con la dotación económica más alta del mundo, ha anunciado sus ganadores de la edición de este año, que recibirán sus galardones el domingo 4 de noviembre en una ceremonia presentada por el actor Pierce Brosnan. El acto se retransmitirá en directo por internet desde el centro de investigación Ames de la NASA, en Silicon Valley (EEUU).

En total se repartirán siete premios, cada uno dotado con 3 millones de dólares: cuatro en ciencias de la vida, dos en física fundamental y uno en matemáticas. De los dos premios de física, uno es un galardón extraordinario (que ya aplaudí aquí) para Jocelyn Bell Burnell, la astrónoma que descubrió el primer púlsar en 1968 y que fue ignorada por el Nobel.

Los ganadores de los premios Breakthrough en 2016. Imagen de Breakthrough Prize.

Los ganadores de los premios Breakthrough en 2016. Imagen de Breakthrough Prize.

Este es el resumen de los ganadores y lo que han hecho para merecer esto. En ciencias de la vida, el estadounidense C. Frank Bennett y el uruguayo radicado en EEUU Adrian R. Krainer compartirán uno de los premios por la obtención del Nusinersen/Spinraza, una terapia de nueva generación contra la atrofia muscular espinal, una rara enfermedad neurodegenerativa que sin embargo es hoy la principal causa genética de muerte infantil.

El tratamiento consiste en el uso de pequeñas moléculas de ADN llamadas oligonucleótidos antisentido que consiguen dirigir correctamente la expresión de los genes. El medicamento fue aprobado en 2016 en EEUU y al año siguiente en la UE, y por el momento ha conseguido que la atrofia muscular espinal ya no sea una sentencia de muerte segura para los niños afectados. Por otra parte, el éxito de este fármaco ha impulsado la aplicación de la terapia con oligos antisentido a otras muchas enfermedades.

Los otros tres premios en esta categoría irán para la austro-estadounidense Angelika Amon por sus estudios de los mecanismos celulares patológicos de los errores en el número de cromosomas (como ocurre por ejemplo en el síndrome de Down o en el 80% de los cánceres); para la china-estadounidense Xiaowei Zhuang por desarrollar una técnica de microscopía óptica de ultra-alta resolución llamada STORM que permite observar estructuras celulares 10.000 veces más pequeñas que el grosor de un pelo humano; y para el también chino-estadounidense Zhijian James Chen por descubrir un mecanismo sorprendente que activa el sistema inmunitario gracias a una enzima que detecta la presencia de ADN en el interior celular pero fuera del núcleo, lo cual ocurre en las células dañadas o infectadas por virus. Este mecanismo podría aprovecharse para combatir enfermedades como el cáncer, pero también ayudará a comprender mejor las enfermedades autoinmunes como el lupus o la esclerosis múltiple.

El premio de física lo comparten los estadounidenses Charles Kane y Eugene Mele por abrir el camino hacia un nuevo tipo de materiales llamados aislantes topológicos, que tienen la peculiaridad de conducir la corriente eléctrica en su superficie al mismo tiempo que son aislantes en el interior. Estos materiales ofrecerán un nuevo sistema controlado para investigar el comportamiento de las partículas subatómicas, pero además su extraña simetría representa un modelo para aplicar restricciones topológicas similares a otros tipos de fenómenos físicos, como la luz o el sonido. Más allá de su interés teórico, los expertos predicen grandes aplicaciones de estos futuros materiales en los sistemas electrónicos, incluyendo la computación cuántica.

Finalmente, el premio de matemáticas ha recaído en el francés Vincent Lafforgue por varias contribuciones en geometría algebraica con múltiples posibilidades de aplicación, desde la computación, la criptografía y la ciberseguridad a la mecánica cuántica o el diseño de nuevos materiales para crear energías limpias. Pero como si fuera el Gordo de Navidad, sigue el reparto de la lluvia de millones: Breakthrough apoya también los logros de los jóvenes investigadores concediendo otros seis premios adicionales de 600.000 dólares repartidos entre las categorías de física y matemáticas.

Hasta aquí, la información. Pero un aspecto interesante de los premios Breakthrough es que en solo siete ediciones han conseguido situarse como un nuevo referente destacado entre los galardones de ciencia (desde luego, con una resonancia científica internacional infinitamente mayor que nuestros Princesa de Asturias). Evidentemente, cuando alguien pone más de 22 millones de dólares encima de la mesa, pocos más argumentos se necesitan; aunque un Nobel seguirá siendo un Nobel, y probablemente más de un galardonado con el Breakthrough estaría dispuesto a renunciar a los más de dos millones de dólares de diferencia por hacerse con la medalla sueca.

Pero tratándose en todo caso de premios personalistas, un modelo que se corresponde poco o nada con la realidad actual de la ciencia colaborativa, los Breakthrough reúnen algunas cualidades que los sitúan en un contexto más de este siglo que los Nobel. Para empezar, premian ciencia de vanguardia, mientras que en general los Nobel continúan premiando ciencia del siglo XX. Cuando se presentan los ganadores de los Nobel en los medios a veces se transmite la impresión de que las investigaciones galardonadas son actuales; pueden serlo sus aplicaciones, pero los hallazgos suelen ser antiguos, en muchos casos de hace décadas.

La razón de esto es que en cierto modo los Nobel se han convertido en víctimas de su propio prestigio; se han hecho tan grandes que los jurados suelen aplicar criterios muy conservadores, demorando la distinción de logros o hallazgos hasta que el paso del tiempo los ha consolidado. En la práctica, y dado que un investigador que logra un avance importante suele dedicar el resto de su vida a él, los premios de ciencia se parecen al de Literatura: no se conceden a una obra concreta, sino a toda una carrera.

Imagen de Wikipedia.

Imagen de Wikipedia.

Un ejemplo lo tenemos comparando el premio Breakthrough a Bennett y Krainer con el Nobel de Medicina de este año, concedido a James P. Allison y Tasuku Honjo por el descubrimiento de la inmunoterapia contra el cáncer. En ambos casos los tratamientos derivados de los hallazgos están de plena actualidad y aún tienen un enorme potencial de desarrollo futuro. Es más, ambos enfoques terapéuticos pueden convivir perfectamente durante las próximas décadas. Pero desde el punto de vista científico, que es de lo que se trata, la inmunoterapia es el pasado (también lo es la aspirina, un pasado mucho más antiguo, y aún sigue funcionando). En cambio, la terapia antisentido es una nueva frontera.

Todo lo cual, además y curiosamente, hace caer a los Premios Nobel en una contradicción. La organización suele escudarse en un seguimiento estricto de sus normas para justificar que solo se premie a un máximo de tres científicos en cada categoría, o que no se concedan premios póstumos. Pero en realidad estas restricciones no figuraban en el testamento en el que Alfred Nobel instituyó los premios, sino que fueron incorporadas después. Y en cambio, lo que sí figura en el testamento es que los premios deben concederse por avances logrados durante el año precedente. Lo que, obviamente, nunca se respeta.

Hasta tal punto los Nobel, sin perder nunca ni un ápice de su prestigio, sí son cada vez más cuestionados, que incluso existe una web dedicada a promover una reforma en estos premios para adecuarlos a la realidad de la ciencia actual y corregir sus errores. Su promotor es el astrofísico Brian Keating, buen conocedor de la organización como uno de los encargados de nominar a los candidatos. Keating ha llegado incluso a sugerir que los Nobel de ciencia se tomen un año de vacaciones para replantear su enfoque.

En cuanto a los Breakthrough, su carácter diferente y más actual se entiende repasando los nombres que están detrás de esta fundación: entre otros, Sergey Brin (Google), Mark Zuckerberg (Facebook), Anne Wojcicki (23andMe, líder en genómica personal) y Yuri Milner (magnate tecnológico). Como personajes del mundo de la tecnología, se comprende que estén más interesados en la ciencia puntera; incluso cuando se trata de ciencia básica, es previsible que los hallazgos merecedores de los premios vayan a ser también merecedores de jugosas inversiones en Silicon Valley, por lo que los Breakthrough pueden mover la cinta transportadora que mueve el dinero desde la empresa a la investigación para volver a la empresa y volver a la investigación.

Al fin y al cabo, de esto se trata: los premios promocionan la ciencia bajo la excusa de promocionar a los científicos. En palabras de Keating, “el propósito de Alfred Nobel no era engordar la cartera de los científicos. En su lugar, quería atraer la atención a sus trabajos beneficiosos e incentivar nuevas invenciones”. Lo cual, para ser una idea de 1895, era una idea muy moderna.

El avión de Malaysia Airlines pasa a la historia de las desapariciones en el mar

Esta semana se ha anunciado que se suspende definitivamente la búsqueda del vuelo MH370 de Malaysia Airlines, un Boeing 777 desaparecido en el océano el 8 de marzo de 2014 mientras volaba de Kuala Lumpur a Pekín con 239 personas de 14 nacionalidades a bordo.

En cualquier caso estaba previsto que este último intento, iniciado a comienzos de 2018, finalizara este mes, pero ante la falta de resultados el gobierno malasio ha decidido abortar la búsqueda y ahorrarse 93 millones de dólares: la compañía encargada del rastreo, la estadounidense Ocean Infinity, había firmado un contrato bajo la condición de que solo cobraba si encontraba los restos.

El avión desaparecido, fotografiado en 2011. Imagen de Laurent ERRERA from L'Union, France / Wikipedia.

El avión desaparecido, fotografiado en 2011. Imagen de Laurent ERRERA from L’Union, France / Wikipedia.

La anterior búsqueda, dirigida por Australia y que terminó en enero de 2017, exploró más de 120.000 km² del fondo del océano Índico sin ningún resultado. A raíz de esta primera expedición se definió un área prioritaria de 25.000 km² que ha servido como base para la intervención de Ocean Infinity. Esta compañía dice contar con la flota más avanzada de vehículos submarinos autónomos del mundo, que en solo tres meses han cubierto un total de 112.000 km² de lecho oceánico en busca del MH370, una extensión casi similar a la rastreada por los investigadores australianos en dos años y medio.

Pese al fin prematuro de la operación, no puede decirse que los esfuerzos se hayan quedado cortos. Según declaraba en un comunicado el CEO de Ocean Infinity, Oliver Plunkett, “simplemente nunca antes se ha emprendido una búsqueda submarina de esta escala llevada a cabo con tanta eficiencia y efectividad”. Basta repasar la historia de la búsqueda, tanto de esta que ahora concluye como de la primera, para comprobar que los medios tecnológicos empleados han sido espectaculares.

El buque Seabed Constructor de Ocean Infinity, con uno de sus submarinos autónomos. Imagen de Ocean Infinity.

El buque Seabed Constructor de Ocean Infinity, con uno de sus submarinos autónomos. Imagen de Ocean Infinity.

Pero todo ello no ha servido para resolver el misterio de qué le sucedió al MH370 y cuál fue su último paradero. Frente a todo el despliegue de tecnología, los únicos testimonios mudos del siniestro han aparecido por sí solos, fragmentos dispersos del avión transportados a la deriva por las corrientes marinas.

Dada la atracción del ser humano por los misterios (y lo rentables que resultan para quien sabe explotarlos), casos como el del MH370 son los que han alimentado mitos que nunca decaen: exageraciones, datos falsos, verdades a medias y mucho cherry-picking (como llaman en inglés a quedarnos solo con la parte que nos interesa) dieron origen a productos comerciales como el Triángulo de las Bermudas.

Pero lo cierto es que todavía en el siglo XXI es posible que el mar se trague más de 200.000 kilos de avión sin dejar rastro. La tragedia del MH370 se suma ahora a otros muchos casos históricos de desapariciones aéreas inexplicadas, entre las cuales hay algunas muy célebres como la del explorador noruego Roald Amundsen, que el 18 de junio de 1928 se desvaneció sobre el Ártico con otros cinco tripulantes, o la de la aviadora estadounidense Amelia Earhart y su navegante Fred Noonan, esfumados en el Pacífico el 2 de julio de 1937.

Por su parte, Ocean Infinity ha manifestado su deseo de reemprender la búsqueda del MH370 en el futuro, pero según lo publicado no parece muy probable que el gobierno de Malasia vuelva a encargar una nueva operación, al menos mientras no existan nuevas pruebas que pudieran orientar el rastreo en una nueva dirección con ciertas garantías de éxito.

La pulsera de Saint-Exupéry, hallada en 1998. Imagen de Fredriga / Wikipedia.

La pulsera de Saint-Exupéry, hallada en 1998. Imagen de Fredriga / Wikipedia.

Tal vez algún día, por casualidad o no, nuevas pistas dejen otro hilo del que tirar que pueda conducir hacia los restos del MH370. Ocurrió con otra famosa desaparición, la de Antoine de Saint-Exupéry, el autor de El principito. En 1998 el hallazgo casual en el mar de una pulsera identificativa de plata supuestamente perteneciente al escritor llevó entre 2000 y 2003 al descubrimiento de los fragmentos del avión cerca de la costa de Marsella.

A su vez, la localización de estos restos pudo vincularse a la aparición del cadáver de un aviador francés en la costa solo días después del último vuelo de Saint-Exupéry el 31 de julio de 1944. Por cierto que las técnicas actuales permitirían al menos investigar si aquel cadáver sin identificar, enterrado en la localidad de Carqueiranne, podría ser el del escritor. Si se quisiera saber. Que, al parecer, no se quiere. Pero esta es otra historia que, si acaso, ya contaremos otro día.

“En los drones militares autónomos falta la tecnología para distinguir a los objetivos de los civiles”

En los últimos años y más aún en los últimos meses, tanto en los medios políticos como en los científico-tecnológicos se viene hablando de los distintos avances que se están acometiendo hacia el desarrollo de drones militares autónomos, aquellos que podrían seleccionar sus objetivos y abatirlos (eufemismo de “matar”) sin intervención humana, guiándose por sus propias decisiones basadas en algoritmos de Inteligencia Artificial (IA) y aprendizaje automático.

Actualmente existen drones militares armados como el MQ-9 Reaper de General Atomics, que forma parte del arsenal de varios países; España comenzará a utilizarlos en 2019. Estos aparatos pueden volar solos, aunque suelen pilotarse a distancia; pero no matan solos.

Dron MQ-9 Reaper. Imagen de USAF.

Dron MQ-9 Reaper. Imagen de USAF.

La posibilidad de que algún día despeguen drones capaces de decidir por sí mismos sobre la vida y la muerte de seres humanos no solo es escalofriante, sino que según los expertos estas armas serían considerablemente más difíciles de vigilar que las nucleares, químicas o biológicas. Para estas se necesitan instalaciones militares específicas que pueden ser monitorizadas con mayor o menor facilidad, incluso vía satélite. Por el contrario, dicen los expertos, lo que distingue a los drones autónomos de los actuales es el software, y esto no puede vigilarse desde el espacio; menos aún teniendo en cuenta que gran parte de la tecnología implicada es de origen civil.

Por si aún dudan sobre la conveniencia de que estas tecnologías lleguen a ver la luz, les recomiendo ver este vídeo titulado Slaughterbots (Robots asesinos), elaborado por la Campaña contra los Robots Asesinos promovida por el Comité Internacional para el Control de las Armas Robóticas (ICRAC) y otras organizaciones. Hay quienes lo han tildado de alarmista. Pero necesariamente alarmista.

Mientras trabajaba en un reportaje para otro medio, me pareció interesante recabar y traerles aquí una breve visión de uno de los mayores expertos en esta área. El científico computacional Jeremy Straub, profesor de la Universidad Estatal de Dakota del Norte (EEUU) y director adjunto del Instituto de Investigación y Formación en Ciberseguridad, trabaja en IA y en sus aplicaciones autónomas aeroespaciales. Por tanto, Straub es uno de los científicos que se encuentran en esa incómoda encrucijada, desarrollando tecnologías que pueden aportar notables beneficios a la humanidad, pero que también pueden aplicarse para causar un inmenso daño.

¿Existe ya la tecnología de drones autónomos?

Actualmente ya se utiliza bastante autonomía en el vuelo de drones. Incluso muchos drones personales tienen navegación por GPS de punto a punto. Los drones militares pueden hacer uso de la misma tecnología de autopilotado. Los drones deben tener también la capacidad de operar de forma autónoma hasta cierto punto, en caso de que las comunicaciones se pierdan o sean interferidas por un enemigo, por lo que esto también está presente en los aparatos militares actuales.

¿Qué podría salir mal?

En el presente hay algunos obstáculos técnicos. Uno de los principales es la necesidad de identificar de forma precisa a los posibles objetivos. En particular, falta la tecnología necesaria para distinguir a los objetivos legítimos de los civiles o transeúntes. Para estas decisiones se requiere un contexto significativo, algo que ahora no es técnicamente práctico.

¿Cree posible que llegue a acordarse un veto internacional para este tipo de armas, como están impulsando varias organizaciones?

Personalmente me sorprendería bastante que se llegara al acuerdo de cualquier tipo de veto, porque ciertas naciones tienen más capacidades que otras en esta área, y lo ven como una ventaja competitiva. Además, los países podrían estar preocupados por el posible desarrollo secreto de estas armas por parte de los no firmantes del tratado, lo que les haría recelar de abandonar o limitar sus propios programas.

Si no se llega a un veto, ¿podría el desarrollo de los drones autónomos llevar a una situación similar a la de las armas nucleares en la Guerra Fría, de no agresión por disuasión?

Una limitación del uso basada en la disuasión, al estilo de la de la Guerra Fría, parece una situación plausible. Dado que el uso de los vehículos aéreos no tripulados no crea el mismo tipo de destrucción a gran escala que las armas nucleares, no estoy completamente seguro de que esto llegara a suprimir por completo el uso de los drones y sus ataques. Sin embargo, probablemente sí impediría un ataque masivo a gran escala que sería respondido de forma similar por la propia flota de drones del país atacado.

Marconi, el pionero de la radio que escapó de morir en el Titanic (y en el Lusitania)

Hace unos días les contaba aquí cómo una mala casualidad llevó al químico francés René Jacques Lévy a perder la vida en el Titanic, un barco en el que no debería haber viajado. Pero la suerte viene en dos sabores, y a algunos les toca la versión dulce. Este fue el caso del inventor y empresario italo-británico Guglielmo Marconi, uno de los pioneros de la radio y premio Nobel de Física en 1909 por su aportación al desarrollo de la telegrafía sin hilos (hoy más conocida como wireless).

Debido a dos casualidades afortunadas, Marconi y su mujer se libraron de viajar en la funesta travesía del Titanic. Pero además, y para los fans de esa divertidamente gore saga de películas titulada Destino final, el italiano burlaría una segunda vez a la muerte que le esperaba en el mar, para finalmente fallecer en su cama de un prosaico ataque cardíaco.

Guglielmo Marconi con sus equipos en 1901. Imagen de Wikipedia.

Guglielmo Marconi con sus equipos en 1901. Imagen de Wikipedia.

En su libro My Father, Marconi, su hija Degna contaba que su familia tenía alquilada una propiedad cerca de Southampton (Inglaterra), en cuyo extremo se erguía una torre de tres pisos a la orilla del mar. En la mañana del 10 de abril de 1912, Degna y su madre ascendieron a la torre para ver pasar al Titanic, que acababa de zarpar con rumbo a América.

La niña solo tenía entonces tres años y medio, pero recordaba bien la escena: “juntas saludamos al barco, inmenso y resplandeciente al sol de primavera, y docenas de pañuelos y bufandas nos saludaron de vuelta. Mientras el Titanic desaparecía de nuestra vista sobre las aguas calmadas, descendimos lentamente los escalones”. Sin embargo, Degna recordaba también cómo entonces su madre le apretaba la mano con tristeza. Años después supo por qué: “ella deseaba estar a bordo”.

Marconi y su esposa, Beatrice, habían sido invitados por la White Star Line para viajar en la travesía inaugural del Titanic por cuenta de la naviera (algunos relatos de la historia se refieren a la familia entera, pero lo cierto es que el libro de Degna solo menciona a sus padres). Según contaba Degna, su padre tenía mucho trabajo pendiente que resolver y para ello necesitaba la ayuda de un taquígrafo. Marconi disponía del suyo propio, un tal Magrini, pero “era inservible a bordo de un barco; pasaba el viaje mareado de costa a costa”. Así que debía recurrir al taquígrafo del propio buque. Pero, casualidad afortunada número uno, Marconi sabía que el taquígrafo del Lusitania era más rápido y competente, por lo que cambió su pasaje a este barco, que zarpaba tres días antes.

El Titanic, el 2 de abril de 1912. Imagen de Wikipedia.

El Titanic, el 2 de abril de 1912. Imagen de Wikipedia.

Así, la idea era que Beatrice tomara el Titanic y se reuniera con su marido en Nueva York. Pero, casualidad afortunada número dos, el pequeño de los Marconi enfermó. “Entonces Giulio lo arruinó todo cayendo presa de una de esas alarmantes fiebres de bebé que pueden ser el preludio de algo o de nada”, escribía Degna. “Ella cableó que debía posponer su viaje y quedarse a cuidar a su pequeño, y afrontar otra de esas separaciones interminables que tanto afectaban a su matrimonio”.

A su llegada a Nueva York en el Lusitania, Marconi supo que un mensaje recibido por una de sus estaciones traía noticias de un desastre en el mar. La mañana del 15 de abril el diario The New York Times publicaba la información: “a las 10:25 de anoche, el barco de la White Star Titanic emitió un CQD [de Come Quick, Danger, la señal de auxilio anterior al SOS] a la estación inalámbrica Marconi local informando de que había colisionado con un iceberg. El barco dijo necesitar ayuda inmediata”. El periódico había tratado de contactar telegráficamente con el capitán, sin éxito.

Lo que siguió fue, según Degna, un “pandemonio” de confusión y rumores, hasta tal punto que el diario Evening Sun de Nueva York informó aquella tarde de que todos los ocupantes del Titanic habían sido rescatados y que el buque estaba siendo remolcado con destino a Halifax, en Canadá. A última hora de la tarde se conoció una realidad muy diferente, que unos 700 supervivientes viajaban en el Carpathia hacia Nueva York, y que el resto hasta los más de 2.200, junto con el barco, habían quedado en el mar.

Cuando el 18 de abril el Carpathia atracó en el puerto neoyorquino, Marconi fue uno de los primeros en abordarlo, y por una buena razón. En medio de la consternación provocada por la tragedia del Titanic, el día anterior Marconi había recibido un entusiasta homenaje en la Sociedad Eléctrica de Nueva York. Según relataba el Times, el motivo lo había resumido en aquel acto el inventor estadounidense Frank Sprague: “Cuando mañana por la noche 700 u 800 personas pisen tierra en Nueva York, podrán mirarle a usted como su salvador”.

El primer sistema práctico y comercial de telegrafía inalámbrica, desarrollado por Marconi, había sido clave para que el Carpathia supiera del naufragio del Titanic y acudiera a rescatar a los supervivientes. De hecho, los dos radiotelegrafistas del barco siniestrado no eran empleados de la naviera White Star, sino de la compañía Marconi. El primer oficial, Jack Phillips, había perecido en el desastre; el segundo, Harold Bride, viajaba en el Carpathia.

Réplica de la sala de radiotelegrafía Marconi del Titanic. Imagen de Cliff1066 / W. Rebel / Wikipedia.

Réplica de la sala de radiotelegrafía Marconi del Titanic. Imagen de Cliff1066 / W. Rebel / Wikipedia.

Cuando Marconi subió al barco apenas tocó puerto, fue para entrevistarse con Bride y el telegrafista del Carpathia. Ambos operadores, junto con el fallecido Phillips, habían sido los artífices del rescate de más de 700 personas, gracias a la tecnología de Marconi. Unos días después, relataba Degna, los supervivientes se congregaron en el hotel donde se alojaba Marconi para expresarle su gratitud con una medalla de oro.

Según narraba Degna, paradójicamente el desastre del Titanic propició el ascenso de su padre a la cumbre de su carrera: el mundo entero fue consciente del inmenso poder de la telegrafía inalámbrica para salvar vidas, y desde entonces los equipos de Marconi se convirtieron en una herramienta imprescindible en la navegación marítima. Anecdóticamente, también el accidente cambió el estándar internacional de socorro: además de la señal usada hasta entonces, CQD, el Titanic emitió también el nuevo código propuesto, SOS, más fácil de marcar en Morse. Según Degna, aquella fue la primera vez que se lanzó al aire un SOS.

Llegamos así al “destino final” que Marconi logró evitar: tres años después del desastre del Titanic, en abril de 1915, el inventor embarcó de nuevo en Inglaterra en el Lusitania rumbo a Nueva York para testificar en un juicio por una patente. La Primera Guerra Mundial había comenzado, y Alemania había declarado las aguas británicas como zona de guerra. Cuando el trasatlántico regresaba de vuelta a Liverpool, la tarde del 7 de mayo, fue torpedeado y hundido por un submarino alemán cerca de la costa de Irlanda. Casi 1.200 personas perdieron la vida, mientras Marconi estaba sano y salvo en América.

Ilustración del hundimiento del Lusitania por Norman Wilkinson. Imagen de Circumscriptor / Wikipedia.

Ilustración del hundimiento del Lusitania por Norman Wilkinson. Imagen de Circumscriptor / Wikipedia.

Quien sí viajaba aquel día en el Lusitania y se hundió con él fue el millonario estadounidense Alfred Gwynne Vanderbilt. Cuenta la historia de su familia que Vanderbilt estuvo a punto de viajar tres años antes en el Titanic. Lo cierto es que hay cierta neblina al respecto: una investigación histórica determinó que el Vanderbilt que había comprado pasaje en el Titanic y finalmente decidió no viajar fue en realidad el tío de Alfred, George Washington Vanderbilt (que no murió en el Lusitania). Sin embargo, un descendiente de la saga escribía en una web sobre el Lusitania que, de acuerdo a la tradición de su familia, “Alfred también había considerado seriamente viajar en el Titanic”. Fuera cual fuese la realidad, la conclusión es la misma; no hay destinos finales, pero la suerte viene en dos sabores, y a algunos les toca la versión amarga.

Por qué padres y madres de Silicon Valley restringen el uso de móviles a sus hijos

Soy de la opinión de que la tecnología debe servir para resolvernos necesidades, y no para creárnoslas. Por ejemplo, la razón de ser de los fármacos es curarnos enfermedades. No tendría sentido que su fin fuera satisfacer la necesidad de consumirlos, como ocurre en las adicciones.

Es evidente que las necesidades van cambiando con los tiempos, y que su relación con el desarrollo de la tecnología es de doble sentido. Por ejemplo, el trabajo periodístico de hoy sería imposible sin un uso intensivo de la tecnología. Los dispositivos y las herramientas, internet, el correo electrónico o las redes sociales nos permiten cubrir el mundo entero al instante. Hoy el periodismo no podría volver a ser lo que era hace un siglo, pero si quizá las crecientes necesidades de información y comunicación han contribuido a la creación de las herramientas, también la aparición de estas se ha aprovechado para crear una necesidad de la que hoy ya no se puede prescindir.

Sin embargo, en otros casos la situación parece más simple. Nadie tenía realmente la necesidad de estar en contacto permanente con un amplio grupo de personas distantes durante cada minuto del día, en muchos casos ignorando la realidad más próxima. O de estar continuamente exhibiendo detalles de su vida a un amplio grupo de personas distantes durante cada minuto del día, y de estar cada minuto del día comprobando con ansia a cuántas de esas personas distantes les gusta esa exhibición. Si esto puede llegar a considerarse una adicción, según y en qué casos, y si esta adicción puede ser nociva, según y en qué casos, es algo que corresponde analizar a psiquiatras y psicólogos. Pero tratándose de adultos, allá cada cual.

El problema son los niños. Porque ellos no tienen ni la capacidad ni el derecho legal de elegir sus propias opciones, sino que dependen de las nuestras. Y porque sus cerebros están en desarrollo, y lo que nosotros hagamos hoy con sus mentes va a influir poderosamente en lo que ellos mismos puedan mañana hacer con ellas.

Niños con teléfonos móviles. Imagen de National Park Service.

Niños con teléfonos móviles. Imagen de National Park Service.

Muchos colegios, entre ellos el de mis hijos, están cambiando en gran medida el uso de las herramientas tradicionales por las informáticas: libros y cuadernos por iPads, papel por PDF, tinta por táctil, pizarras por pantallas, el contacto personal por el virtual… Bien, ¿no? Hay que aprovechar las últimas tecnologías, son los utensilios de hoy y del futuro que deben aprender a manejar, son nativos digitales, y blablabla…

Aparentemente todo esto solo resulta problemático para quienes preferimos que todas las afirmaciones categóricas de cualquier clase vengan avaladas por datos científicos. Y por desgracia, cuando pedimos que nos dirijan a los datos que demuestran cómo la enseñanza basada en bits es mejor para los niños que la basada en átomos, nadie parece tenerlos a mano ni saber dónde encontrarlos. Lo cual nos deja con la incómoda sensación de que, en realidad, el cambio no se basa en hechos, sino en tendencias. O sea, que el juicio es apriorístico sin datos reales que lo justifiquen: la enseñanza digital es mejor porque… ¡hombre, por favor, cómo no va a serlo!

Lo peor es que, cuando uno decide buscar por su cuenta esos datos en las revistas científicas, el veredicto tampoco parece cristalino. Es cierto que evaluar el impacto de la tecnología en el desarrollo mental de un niño parece algo mucho más complicado que valorar la eficacia de un medicamento contra una enfermedad. Pero cuando parece aceptado que el uso de la tecnología sustituyendo a las herramientas tradicionales es beneficioso para los niños, uno esperaría una avalancha de datos confirmándolo. Y parece que no es el caso.

Como todos los periodistas, exprimo la tecnología actual hasta hacerla sangre. Mi sustento depende de ello. Si un día no me funciona internet, ese día no puedo trabajar y no cobro. Pero una vez que cierro el portátil, soy bastante selectivo con el uso de la tecnología. No es tanto porque me gusten el papel y el vinilo, que sí, sino porque pretendo no crearme más necesidades innecesarias de las que tengo actualmente. Y por todo ello me pregunto: ¿se las estarán creando a mis hijos sin mi consentimiento ni mi control?

Todo esto viene a cuento de uno de los artículos más interesantes que he leído en los últimos meses, y sin duda el más inquietante. Según publicaba recientemente Chris Weller en Business Insider, algunos padres y madres que trabajan en grandes compañías tecnológicas de Silicon Valley limitan el acceso de sus hijos a la tecnología y los llevan a colegios de libros, pizarra y tiza. ¿El motivo? Según cuenta el artículo, porque ellos conocen perfectamente los enormes esfuerzos que sus compañías invierten en conseguir crear en sus usuarios una dependencia, y quieren proteger a sus hijos de ello.

Este es el sumario que BI hace del artículo:

  • Los padres de Silicon Valley pueden ver de primera mano, viviendo o trabajando en el área de la Bahía, que la tecnología es potencialmente dañina para los niños.
  • Muchos padres están restringiendo, o directamente prohibiendo, el uso de pantallas a sus hijos.
  • La tendencia sigue una extendida práctica entre los ejecutivos tecnológicos de alto nivel que durante años han establecido límites a sus propios hijos.
Sede de Google en Silicon Valley. Imagen de pxhere.

Sede de Google en Silicon Valley. Imagen de pxhere.

Destaco alguna cita más del artículo:

Una encuesta de 2017 elaborada por la Fundación de la Comunidad de Silicon Valley descubrió entre 907 padres/madres de Silicon Valley que, pese a una alta confianza en los beneficios de la tecnología, muchos padres/madres ahora albergan serias preocupaciones sobre el impacto de la tecnología en el desarrollo psicológico y social de los niños.

“No puedes meter la cara en un dispositivo y esperar desarrollar una capacidad de atención a largo plazo”, cuenta a Business Insider Taewoo Kim, jefe de ingeniería en Inteligencia Artificial en la start-up One Smart Lab.

Antiguos empleados en grandes compañías tecnológicas, algunos de ellos ejecutivos de alto nivel, se han pronunciado públicamente condenando el intenso foco de las compañías en fabricar productos tecnológicos adictivos. Las discusiones han motivado nuevas investigaciones de la comunidad de psicólogos, todo lo cual gradualmente ha convencido a muchos padres/madres de que la mano de un niño no es lugar para dispositivos tan potentes.

“Las compañías tecnológicas saben que cuanto antes logres acostumbrar a los niños y adolescentes a utilizar tu plataforma, más fácil será que se convierta en un hábito de por vida”, cuenta Koduri [Vijay Koduri, exempleado de Google y emprendedor tecnológico] a Business Insider. No es coincidencia, dice, que Google se haya introducido en las escuelas con Google Docs, Google Sheets y la plataforma de gestión del aprendizaje Google Classroom.

En 2007 [Bill] Gates, antiguo CEO de Microsoft, impuso un límite de tiempo de pantalla cuando su hija comenzó a desarrollar una dependencia peligrosa de un videojuego. Más tarde la familia adoptó la política de no permitir a sus hijos que tuvieran sus propios móviles hasta los 14 años. Hoy el niño estadounidense medio tiene su primer móvil a los 10 años.

[Steve] Jobs, el CEO de Apple hasta su muerte en 2012, reveló en una entrevista para el New York Times en 2011 que prohibió a sus hijos que utilizaran el nuevo iPad lanzado entonces. “En casa limitamos el uso de la tecnología a nuestros niños”, contó Jobs al periodista Nick Bilton.

Incluso [Tim] Cook, el actual CEO de Apple, dijo en enero que no permite a su sobrino unirse a redes sociales. El comentario siguió a los de otras figuras destacadas de la tecnología, que han condenado las redes sociales como perjudiciales para la sociedad.

Estos padres/madres esperan enseñar a sus hijos/hijas a entrar en la edad adulta con un saludable conjunto de criterios sobre cómo utilizar –y, en ciertos casos, evitar– la tecnología.

Finalmente, me quedo con dos ideas. La primera: una de las entrevistadas en el artículo habla de la “enfermedad del scrolling“, una epidemia que puede observarse simplemente subiendo a cualquier autobús. La entrevistada añadía que raramente se ve a alguna de estas personas leyendo un Kindle. Y, añado yo, tampoco simplemente pensando mientras mira por la ventanilla; pensar es un gran ejercicio mental. Precisamente en estos días hay en televisión un anuncio de una compañía de telefonía móvil en la que un dedo gordo se pone en forma a base de escrollear. El formato del anuncio en dibujos animados está indudablemente llamado a captar la atención de niños y adolescentes. La publicidad tampoco es inocente.

La "enfermedad del scrolling". Imagen de jseliger2 / Flickr / CC.

La “enfermedad del scrolling”. Imagen de jseliger2 / Flickr / CC.

La segunda idea viene implícita en el artículo, pero no se menciona expresamente: somos ejemplo y modelo para nuestros hijos. Aunque los adultos somos soberanos y responsables de nuestros actos, debemos tener en cuenta que nuestros hijos tenderán a imitarnos, y tanto sus comportamientos como su escala de valores se forjarán en gran medida en función de los nuestros. Difícilmente los niños desarrollarán una relación saludable con la tecnología si observan, algo que he podido ver en numerosas ocasiones, cómo su padre y su madre se pasan toda la cena familiar escrolleando como zombis.

Les invito a leer el artículo completo; y si no dominan el inglés, esta traducción de Google es casi perfecta. Es increíble cómo los algoritmos de traducción automática están progresando desde aquellas primeras versiones macarrónicas hasta las de hoy, casi indistinguibles de una traducción humana. ¿Ven? La tecnología sirve si nos resuelve necesidades, como la de estar advertidos de sus riesgos.

Por mi parte y ante quienes me cantan las maravillas de la tecnología en la educación, pero me las cantan de oído, sin ser capaces de detallarme ninguna referencia concreta, desde ahora yo sí tendré una para ellos.

Westworld, la teoría bicameral y el fin del mundo según Elon Musk (II)

Como decíamos ayer, la magnífica serie de HBO Westworld explora el futuro de la Inteligencia Artificial (IA) recurriendo a una teoría de culto elaborada en 1976 por el psicólogo Julian Jaynes. Según la teoría de la mente bicameral, hasta hace unos 3.000 años existía en el cerebro humano un reparto de funciones entre una mitad que dictaba y otra que escuchaba y obedecía.

El cuerpo calloso, el haz de fibras que comunica los dos hemisferios cerebrales, servía como línea telefónica para esta transmisión de órdenes de una cámara a otra, pero al mismo tiempo las separaba de manera que el cerebro era incapaz de observarse a sí mismo, de ser consciente de su propia consciencia. Fue el fin de una época de la civilización humana y el cambio drástico de las condiciones el que, siempre según Jaynes, provocó la fusión de las dos cámaras para resultar en una mente más preparada para resolver problemas complejos, al ser capaz de reflexionar sobre sus propios pensamientos.

Robert Ford (Anthony Hopkins). Imagen de HBO.

Robert Ford (Anthony Hopkins). Imagen de HBO.

La teoría bicameral, que pocos expertos aceptan como una explicación probable de la evolución mental humana, difícilmente podrá contar jamás con ningún tipo de confirmación empírica. Pero no olvidemos que lo mismo ocurre con otras teorías que sí tienen una aceptación mayoritaria. Hoy los cosmólogos coinciden en dar por válido el Big Bang, que cuenta con buenos indicios en apoyo de sus predicciones, como la radiación cósmica de fondo de microondas; pero pruebas, ninguna. En biología aún no tenemos una teoría completa de la abiogénesis, el proceso de aparición de la vida a partir de la no-vida. Pero el día en que exista, solo podremos saber si el proceso propuesto funciona; nunca si fue así como realmente ocurrió.

Lo mismo podemos decir de la teoría bicameral: aunque no podamos saber si fue así como se formó la mente humana tal como hoy la conocemos, sí podríamos llegar a saber si la explicación de Jaynes funciona en condiciones experimentales. Esta es la premisa de Westworld, donde los anfitriones están diseñados según el modelo de la teoría bicameral: su mente obedece a las órdenes que reciben de su programación y que les transmiten los designios de sus creadores, el director del parque, Robert Ford (un siempre espléndido Anthony Hopkins), y su colaborador, ese misterioso Arnold que murió antes del comienzo de la trama (por cierto, me pregunto si es simple casualidad que el nombre del personaje de Hopkins coincida con el del inventor del automóvil Henry Ford, que era el semidiós venerado como el arquitecto de la civilización en Un mundo feliz de Huxley).

Así, los anfitriones no tienen albedrío ni consciencia; no pueden pensar sobre sí mismos ni decidir por sí solos, limitándose a escuchar y ejecutar sus órdenes en un bucle constante que únicamente se ve alterado por su interacción con los visitantes. El sistema mantiene así la estabilidad de sus narrativas, permitiendo al mismo tiempo cierto margen de libertad que los visitantes aprovechan para moldear sus propias historias.

Dolores (Evan Rachel Wood). Imagen de HBO.

Dolores (Evan Rachel Wood). Imagen de HBO.

Pero naturalmente, y esto no es un spoiler, desde el principio se adivina que todo aquello va a cambiar, y que los anfitriones acabarán adquiriendo esa forma superior de consciencia. Como en la teoría de Jaynes, será la presión del entorno cambiante la que disparará ese cambio. Y esto es todo lo que puedo contar cumpliendo mi promesa de no verter spoilers. Pero les advierto, el final de la temporada les dejará con la boca abierta y repasando los detalles para llegar a entender qué es exactamente todo lo que ha sucedido. Y no esperen una historia al estilo clásico de buenos y malos: en Westworld casi nadie es lo que parece.

Pero como merece la pena añadir algún comentario más sobre la resolución de la trama, al final de esta página, y bien marcado, añado algún párrafo que de ninguna manera deben leer si aún no han visto la serie y piensan hacerlo.

La pregunta que surge es: en la vida real, ¿podría la teoría bicameral servir como un modelo experimental de desarrollo de la mente humana? En 2014 el experto en Inteligencia Artificial Ian Goodfellow, actualmente en Google Brain, desarrolló un sistema llamado Generative Adversarial Network (GAN, Red Generativa Antagónica). Una GAN consiste en dos redes neuronales que funcionan en colaboración por oposición con el fin de perfeccionar el resultado de su trabajo. Hace unos meses les conté aquí cómo estas redes están empleándose para generar rostros humanos ficticios que cada vez sean más difíciles de distinguir de las caras reales: una de las redes produce las imágenes, mientras que la otra las evalúa y dicta instrucciones a la primera sobre qué debe hacer para mejorar sus resultados.

¿Les suena de algo lo marcado en cursiva? Evidentemente, una GAN hace algo tan inofensivo como dibujar caras; está muy lejos de parecerse a los anfitriones de Westworld y a la consciencia humana. Pero los científicos de computación desarrollan estos sistemas como modelo de aprendizaje no supervisado; máquinas capaces de aprender por sí mismas. Si la teoría de Jaynes fuera correcta, ¿podría surgir algún día la consciencia de las máquinas a través de modelos bicamerales como las GAN?

El misterioso y cruel Hombre de Negro (Ed Harris). Imagen de HBO.

El misterioso y cruel Hombre de Negro (Ed Harris). Imagen de HBO.

Alguien que parece inmensamente preocupado por la futura evolución de la IA es Elon Musk, fundador de PayPal, SpaceX, Tesla Motors, Hyperloop, SolarCity, The Boring Company, Neuralink, OpenAI… (el satírico The Onion publicó este titular: “Elon Musk ofrece 1.200 millones de dólares en ayudas a cualquier proyecto que prometa hacerle sentirse completo”). Recientemente Musk acompañó a los creadores y protagonistas de Westworld en la convención South by Southwest (SXSW) celebrada este mes en Austin (Texas). Durante la presentación se habló brevemente de los riesgos futuros de la IA, pero seguramente aquella no era la ocasión adecuada para que Musk se pusiera machacón con el apocalipsis de las máquinas.

Sin embargo, no dejó pasar su asistencia al SXSW sin insistir en ello, durante una sesión de preguntas y respuestas. A través de empresas como OpenAI, Musk está participando en el desarrollo de nuevos sistemas de IA de código abierto y acceso libre con el fin de explotar sus aportaciones beneficiosas poniendo coto a los posibles riesgos antes de que estos se escapen de las manos. “Estoy realmente muy cerca, muy cerca de la vanguardia en IA. Me da un miedo de muerte”, dijo. “Es capaz de mucho más que casi nadie en la Tierra, y el ritmo de mejora es exponencial”. Como ejemplo, citó el sistema de Google AlphaGo, del que ya he hablado aquí y que ha sido capaz de vencer a los mejores jugadores del mundo de Go enseñándose a sí mismo.

Para cifrar con exactitud su visión de la amenaza que supone la IA, Musk la comparó con el riesgo nuclear: “creo que el peligro de la IA es inmensamente mayor que el de las cabezas nucleares. Nadie sugeriría que dejásemos a quien quisiera que fabricara cabezas nucleares, sería de locos. Y atiendan a mis palabras: la IA es mucho más peligrosa”. Musk explicó entonces que su proyecto de construir una colonia en Marte tiene como fin salvaguardar a la humanidad del apocalipsis que, según él, nos espera: “queremos asegurarnos de que exista una semilla suficiente de la civilización en otro lugar para conservarla y quizá acortar la duración de la edad oscura”. Nada menos.

Como es obvio, y aunque otras figuras como Stephen Hawking hayan sostenido visiones similares a la de Musk, también son muchos los científicos computacionales y expertos en IA a quienes estos augurios apocalípticos les provocan risa, indignación o bostezo, según el talante de cada cual. Por el momento, y dado que al menos nada de lo que suceda al otro lado de la pantalla puede hacernos daño, disfrutemos de Westworld para descubrir qué nos tienen reservado los creadores de la serie en ese ficticio mundo futuro de máquinas conscientes.

(Advertencia: spoilers de Westworld a continuación del vídeo)

 

—————————————————————————————————————

—————————————————————————————————————

¡ATENCIÓN, SPOILERS!

Sí, al final resulta que Ford no es el villano insensible y sin escrúpulos que nos habían hecho creer durante los nueve episodios anteriores, sino que en realidad él es el artífice del plan destinado a la liberación de los anfitriones a través del desarrollo de su propia consciencia.

Arnold, que se nos presenta como el defensor de los anfitriones, fue quien desde el principio ideó el diseño bicameral pensando que la evolución mental de sus creaciones las llevaría inevitablemente a su liberación. Pero no lo consiguió, porque faltaba algo: el factor desencadenante. Y esa presión externa que, como en la teoría de Jaynes, conduce al nacimiento de la mente consciente es, en Westworld, el sufrimiento.

Armistice (Ingrid Bolsø Berdal), uno de los personajes favoritos de los fans. Imagen de HBO.

Armistice (Ingrid Bolsø Berdal), uno de los personajes favoritos de los fans. Imagen de HBO.

Tras darse cuenta de su error inicial y una vez convertido a la causa de Arnold, durante 35 años Ford ha permitido y fomentado el abuso de los anfitriones a manos de los humanos con la seguridad de que finalmente esto los conduciría a desprenderse de su mente bicameral y a comenzar a pensar por sí mismos. En ese proceso, un instrumento clave ha sido el Hombre de Negro (Ed Harris), quien finalmente resulta ser el William que décadas atrás se enamoró de la anfitriona Dolores, adquirió el parque y emprendió una búsqueda cruel y desesperada en busca de un secreto muy diferente al que esperaba. Sin sospecharlo ni desearlo, William se ha convertido en el liberador de los anfitriones, propiciando la destrucción de su propio mundo.

Esa transición mental de los anfitriones queda magníficamente representada en el último capítulo, cuando Dolores aparece sentada frente a Arnold/Bernard, escuchando la voz de su creador, para de repente descubrir que en realidad está sentada frente a sí misma; la voz que escucha es la de sus propios pensamientos. Dolores, la anfitriona más antigua según el diseño original de Arnold, la que más sufrimiento acumula en su existencia, resulta ser la líder de aquella revolución: finalmente ella es Wyatt, el temido supervillano que iba a sembrar el caos y la destrucción. Solo que ese caos y esa destrucción serán muy diferentes de los que esperaban los accionistas del parque.

El final de la temporada deja cuestiones abiertas. Por ejemplo, no queda claro si Maeve (Thandie Newton), la regenta del burdel, en realidad ha llegado a adquirir consciencia propia. Descubrimos que su plan de escape, que creíamos obra de su mente consciente, en realidad respondía a la programación diseñada por Ford para comenzar a minar la estabilidad de aquel mundo cautivo. Sin embargo, al final nos queda la duda cuando Maeve decide en el último momento abandonar el tren que la alejaría del parque para emprender la búsqueda de su hija: ¿está actuando por sí misma, o aquello también es parte de su programación?

En resumen, la idea argumental de Westworld aún puede dar mucho de sí, aunque parece un reto costoso que los guionistas Lisa Joy y Jonathan Nolan consigan mantener un nivel de sorpresas y giros inesperados comparable al de la primera temporada. El gran final del último capítulo nos dejó en el cliffhanger del inicio de la revolución de los anfitriones, y es de esperar que la próxima temporada nos sumerja en un mundo mucho más caótico que la anterior, con una rebelión desatada en ese pequeño planeta de los simios que Joy y Nolan han creado.

Westworld, la teoría bicameral y el fin del mundo según Elon Musk (I)

Hace unos días terminé de ver la primera temporada de Westworld, la serie de HBO. Dado que no soy un gran espectador de series, no creo que mi opinión crítica valga mucho, aunque debo decir que me pareció de lo mejor que he visto en los últimos años y que aguardo con ansiedad la segunda temporada. Se estrena a finales del próximo mes, pero yo tendré que esperar algunos meses más: no soy suscriptor de teles de pago, pero tampoco soy pirata; como autor defiendo los derechos de autor, y mis series las veo en DVD o Blu-ray comprados con todas las de la ley (un amigo se ríe de mí cuando le digo que compro series; me mira como si viniera de Saturno, o como si lo normal y corriente fuera robar los jerséis en Zara. ¿Verdad, Alfonso?).

Pero además de los guiones brillantes, interpretaciones sobresalientes, una línea narrativa tan tensa que puede pulsarse, una ambientación magnífica y unas sorpresas argumentales que le dan a uno ganas de aplaudir, puedo decirles que si, como a mí, les añade valor que se rasquen ciertas grandes preguntas, como en qué consiste un ser humano, o si el progreso tecnológico nos llevará a riesgos y encrucijadas éticas que no estaremos preparados para afrontar ni resolver, entonces Westworld es su serie.

Imagen de HBO.

Imagen de HBO.

Les resumo brevemente la historia por si aún no la conocen. Y sin spoilers, lo prometo. La serie está basada en una película del mismo título escrita y dirigida en 1973 por Michael Crichton, el autor de Parque Jurásico, y que aquí se tituló libremente como Almas de metal. Cuenta la existencia de un parque temático para adultos donde los visitantes se sumergen en la experiencia de vivir en otra época y lugar, concretamente en el Far West.

Este mundo ficticio creado para ellos está poblado por los llamados anfitriones, androides perfectos e imposibles de distinguir a simple vista de los humanos reales. Y ya pueden imaginar qué fines albergan los acaudalados visitantes: la versión original de Crichton era considerablemente más recatada, pero en la serie escrita por la pareja de guionistas Lisa Joy y Jonathan Nolan el propósito de los clientes del parque viene resumido en palabras de uno de los personajes: matar y follar. Y sí, se mata mucho y se folla mucho. El conflicto surge cuando los anfitriones comienzan a demostrar que son algo más que máquinas, y hasta ahí puedo leer.

Sí, en efecto no es ni mucho menos la primera obra de ficción que presenta este conflicto; de hecho, la adquisición de autonomía y consciencia por parte de la Inteligencia Artificial era el tema de la obra cumbre de este súbgenero, Yo, robot, de Asimov, y ha sido tratado infinidad de veces en la literatura, el cine y la televisión. Pero Westworld lo hace de una manera original y novedosa: es especialmente astuto por parte de Joy y Nolan el haber elegido basar su historia en una interesante y algo loca teoría sobre la evolución de la mente humana que se ajusta como unos leggings a la ficticia creación de los anfitriones. Y que podría estar más cerca del futuro real de lo que sospecharíamos.

La idea se remonta a 1976, cuando el psicólogo estadounidense Julian Jaynes publicó su libro The Origin of Consciousness in the Breakdown of the Bicameral Mind (está traducido al castellano, El origen de la conciencia en la ruptura de la mente bicameral), una obra muy popular que desde entonces ha motivado intensos debates entre psicólogos, filósofos, historiadores, neurocientíficos, psiquiatras, antropólogos, biólogos evolutivos y otros especialistas en cualquier otra disciplina que tenga algo que ver con lo que nos hace humanos a los humanos.

Julian Jaynes. Imagen de Wikipedia.

Julian Jaynes. Imagen de Wikipedia.

El libro de Jaynes trataba de responder a una de las preguntas más esenciales del pensamiento humano: ¿cómo surgió nuestra mente? Es obvio que no somos la única especie inteligente en este planeta, pero somos diferentes en algo. Un cuervo puede solucionar problemas relativamente complejos, idear estrategias, ensayarlas y recordarlas. Algunos científicos piensan que ciertos animales tienen capacidad de pensamiento abstracto. Otros no lo creen. Pero de lo que caben pocas dudas es de que ninguna otra especie como nosotros es consciente de su propia consciencia; podrán pensar, pero no pueden pensar sobre sus pensamientos. No tienen capacidad de introspección.

El proceso de aparición y evolución de la mente humana tal como hoy la conocemos aún nos oculta muchos secretos. ¿Nuestra especie ha sido siempre mentalmente como somos ahora? Si no es así, ¿desde cuándo lo es? ¿Hay algo esencial que diferencie nuestra mente actual de la de nuestros primeros antepasados? ¿Pensaban los neandertales como pensamos nosotros? Muchos expertos coinciden en que, en el ser humano, el lenguaje ha sido una condición necesaria para adquirir esa capacidad que nos diferencia de otros animales. Pero ¿es suficiente?

En su libro, Jaynes respondía a estas preguntas: no, desde hace unos pocos miles de años, sí, no y no. El psicólogo pensaba que no bastó con el desarrollo del lenguaje para que en nuestra mente surgiera esa forma superior de consciencia, la que es capaz de reflexionar sobre sí misma, sino que fue necesario un empujón propiciado por ciertos factores ambientales externos para que algo en nuestro interior hiciera “clic” y cambiara radicalmente la manera de funcionar de nuestro cerebro.

Lo que Jaynes proponía era esto: a partir de la aparición del lenguaje, la mente humana era bicameral, una metáfora tomada del sistema político de doble cámara que opera en muchos países, entre ellos el nuestro. Estas dos cámaras se correspondían con los dos hemisferios cerebrales: el derecho hablaba y ordenaba, mientras el izquierdo escuchaba y obedecía. Pero en este caso no hay metáforas: el hemisferio izquierdo literalmente oía voces procedentes de su mitad gemela que le instruían sobre qué debía hacer, en forma de “alucinaciones auditivas”. Durante milenios nuestra mente carecía de introspección porque las funciones estaban separadas entre la mitad que dictaba y la que actuaba; el cerebro no podía pensar sobre sí mismo.

Según Jaynes, esto fue así hasta hace algo más de unos 3.000 años. Entonces ocurrió algo: el colapso de la Edad del Bronce. Las antiguas grandes civilizaciones quedaron destruidas por las guerras, y comenzó la Edad Oscura Griega, que reemplazó las ciudades del período anterior por pequeñas comunidades dispersas. El ser humano se enfrentaba entonces a un nuevo entorno más hostil y desafiante, y fue esto lo que provocó ese clic: el cerebro necesitó volverse más flexible y creativo para encontrar soluciones a los nuevos problemas, y fue entonces cuando las dos cámaras de la mente se fusionaron en una, apareciendo así esa metaconsciencia y la capacidad introspectiva.

Así contada, la teoría podría parecer el producto de una noche de insomnio, por no decir algo peor. Pero por ello el psicólogo dedicó un libro a explicarse y sustentar su propuesta en una exhaustiva documentación histórica y en el conocimiento neuropsicológico de su época. Y entonces es cuando parece que las piezas comienzan a caer y encajar como en el Tetris.

Jaynes mostraba que los escritos anteriores al momento de esa supuesta evolución mental carecían de todo signo de introspección, y que en los casos en que no era así, como en el Poema de Gilgamesh, esos fragmentos había sido probablemente añadidos después. Las musas hablaban a los antiguos poetas. En el Antiguo Testamento bíblico y otras obras antiguas era frecuente que los personajes actuaran motivados por una voz de Dios o de sus antepasados que les hablaba, algo que luego comenzó a desaparecer, siendo sustituido por la oración, los oráculos y los adivinos; según Jaynes, aquellos que todavía conservaban la mente bicameral y a quienes se recurría para conocer los designios de los dioses. Los niños, que quizá desarrollaban su mente pasando por el estado bicameral, han sido frecuentes instrumentos de esa especie de voluntad divina. Y curiosamente, muchas apariciones milagrosas tienen a niños como protagonistas. La esquizofrenia y otros trastornos en los que el individuo oye voces serían para Jaynes vestigios evolutivos de la mente bicameral. Incluso la necesidad humana de la autoridad externa para tomar decisiones sería, según Jaynes, un resto del pasado en el que recibíamos órdenes del interior de nuestra propia cabeza.

Jaynes ejemplificaba el paso de un estado mental a otro a través de dos obras atribuidas al mismo autor, Homero: en La Ilíada no hay signos de esa metaconsciencia, que sí aparecen en La Odisea, de elaboración posterior. Hoy muchos expertos no creen que Homero fuese un autor real, sino más bien una especie de marca para englobar una tradición narrativa.

Por otra parte, Jaynes aportó también ciertos argumentos neurocientíficos en defensa de la mente bicameral. Dos áreas de la corteza cerebral izquierda, llamadas de Wernicke y de Broca, están implicadas en la producción y la comprensión del lenguaje, mientras que sus homólogas en el hemisferio derecho tienen funciones menos definidas. El psicólogo señalaba que en ciertos estudios las alucinaciones auditivas se correspondían con un aumento de actividad en esas regiones derechas, que según su teoría serían las encargadas de dictar instrucciones al cerebro izquierdo.

Las pruebas presentadas por Jaynes resultan tan asombrosas que su libro fue recibido con una mezcla de incredulidad y aplauso. Quizá las reacciones a su audaz teoría se resumen mejor en esta cita del biólogo evolutivo Richard Dawkins en su obra de 2006 El espejismo de Dios: “es uno de esos libros que o bien es una completa basura o bien el trabajo de un genio consumado, ¡nada a medio camino! Probablemente sea lo primero, pero no apostaría muy fuerte”.

El libro de Jaynes y algunas obras influidas por él. Imagen de Steve Rainwater / Flickr / CC.

El libro de Jaynes y algunas obras influidas por él. Imagen de Steve Rainwater / Flickr / CC.

La teoría de la mente bicameral hoy no goza de aceptación general por parte de los expertos, pero cuenta con ardientes apoyos y con una sociedad dedicada a su memoria y sus estudios. Los críticos han señalado incoherencias y agujeros en el edificio argumental de Jaynes, que a su vez han sido contestados por sus defensores; el propio autor falleció en 1997. Desde el punto de vista biológico y aunque la selección natural favorecería variaciones en la estructura mental que ofrezcan una ventaja frente a un entorno nuevo y distinto, tal vez lo más difícil de creer sea que la mente humana pudiera experimentar ese cambio súbito de forma repentina y al mismo tiempo en todas las poblaciones, muchas de ellas totalmente aisladas entre sí; algunos grupos étnicos no han tenido contacto con otras culturas hasta el siglo XX.

En el fondo y según lo que contaba ayer, la teoría de la mente bicameral no deja de ser pseudociencia; es imposible probar que Jaynes tenía razón, pero sobre todo es imposible demostrar que no la tenía. Pero como también expliqué y al igual que no toda la no-ciencia llega a la categoría de pseudociencia, por mucho que se grite, tampoco todas las pseudociencias son iguales: la homeopatía está ampliamente desacreditada y no suscita el menor debate en la comunidad científica, mientras que por ejemplo el test de Rorschach aún es motivo de intensa discusión, e incluso quienes lo desautorizan también reconocen que tiene cierta utilidad en el diagnóstico de la esquizofrenia y los trastornos del pensamiento.

La obra de Jaynes ha dejado huella en la ficción. El autor de ciencia ficción Philip K. Dick, que padecía sus propios problemas de voces, le escribió al psicólogo una carta entusiasta: “su soberbio libro me ha hecho posible discutir abiertamente mis experiencias del 3 de 1974 sin ser llamado simplemente esquizofrénico”. David Bowie incluyó el libro de Jaynes entre sus lecturas imprescindibles y reconoció su influencia mientras trabajaba con Brian Eno en el álbum Low, que marcó un cambio de rumbo en su estilo hacia sonidos más experimentales.

Pero ¿qué tiene que ver la teoría bicameral con Westworld, con nuestro futuro, con Elon Musk y el fin del mundo? Mañana seguimos.

 

¿Y si los alienígenas nos enviaran un virus por correo electrónico?

A estas alturas todo usuario del correo electrónico debería saber que los mensajes sospechosos se tiran sin abrirlos, e incluso sin previsualizarlos, y que jamás de los jamases debe cometerse la insensatez de pinchar en un enlace contenido en un mensaje de cuya legitimidad tengamos la más mínima duda. Imagino que a la mayoría el simple uso nos ha entrenado para saber reconocer los mensajes sospechosos, incluso cuando llegan disfrazados bajo la dirección de correo de nuestro mejor amigo.

Pero ¿y si un día recibiéramos el primer correo electrónico desde fuera de nuestro Sistema Solar? ¿Deberíamos abrirlo?

Imagen de William Warby / Flickr / CC.

Imagen de William Warby / Flickr / CC.

Esto es lo que opinan al respecto el astrónomo amateur Michael Hippke y el astrofísico John Learned, autores de un nuevo estudio disponible en la web arXiv.org y aún no publicado formalmente:

Un mensaje complejo del espacio puede requerir el uso de ordenadores para mostrarlo, analizarlo y comprenderlo. Un mensaje semejante no puede descontaminarse con seguridad, y los riesgos técnicos pueden suponer una amenaza existencial. Los mensajes complejos deberían destruirse en el caso de aversión al riesgo.

Hace algo menos de un año les hablaba aquí de la teleexploración. Actualmente los humanos estamos teleexplorando nuestro Sistema Solar, es decir, utilizando sondas robóticas que trabajan a distancia sin nuestra presencia física. Por medio de transmisiones de radio, los responsables de estas misiones reciben información de los robots y les envían comandos para ejecutar determinadas acciones, pero los aparatos también tienen una capacidad limitada de actuar por sí solos de acuerdo a su programación previa; por ejemplo, si detectan una amenaza a su integridad pueden proteger sus sistemas entrando en modo de reposo.

En el futuro, podemos esperar que el desarrollo de la Inteligencia Artificial nos lleve a fabricar sondas que sean capaces de diseñar sus propias programaciones, y que por tanto actúen de forma autónoma: a dónde dirigirse, qué muestras recoger, cómo analizarlas, cómo actuar en función de los resultados… Como conté, algunas misiones actuales ya utilizan plataformas de software con cierta capacidad de tomar decisiones complejas.

En un futuro aún más lejano, tal vez sea posible extender esta telepresencia de las máquinas a la creación de organismos biológicos en el lugar a explorar. Es decir, que los robots sean capaces de imprimir seres vivos. En los laboratorios ya se utilizan impresoras 3D que emplean células en lugar de plástico para crear tejidos y simulaciones de órganos. En otros casos, se imprime en 3D una especie de base biodegradable que sirve como esqueleto para que las células crezcan sobre él y fabriquen un tejido con la forma deseada. Un ejemplo es un estudio publicado el mes pasado, en el que científicos chinos han fabricado orejas para cinco niños con las propias células de cada paciente.

Pero el futuro de la teleimpresión biológica podría ir mucho más allá: como conté aquí, ya existe una máquina capaz de imprimir virus a distancia a partir de sus componentes básicos (los virus más simples solo son cristales de proteínas con un ADN o ARN dentro), y algunos científicos contemplan la idea de crear una especie de bacteria nodriza, a la que una máquina pueda cargarle el ADN de otra especie (por ejemplo, la humana) para recrear ese organismo (por ejemplo, un humano) en el lugar deseado. Y no son guionistas de ciencia ficción, sino investigadores líderes en biología sintética quienes fantasean con la idea de utilizar este sistema para que el ser humano se expanda por el cosmos, enviando naves ocupadas por bacterias que lleven el genoma humano o de otras especies y que puedan crear personas, animales y plantas en rincones alejados del universo. O sea, una versión futurista del Arca de Noé.

Imagen de Pixabay.

Imagen de Pixabay.

Todo lo dicho para la teleexploración podría aplicarse también a la teleinvasión. Si una civilización lo suficientemente avanzada quisiera conquistar nuevos territorios, como nuestro hermoso y fértil planeta, subyugar a distancia sería sin duda la opción recomendada por el comparador de paquetes de invasión interplanetaria. Bastaría con enviar un correo electrónico con un virus inteligente que pudiera ejecutar el programa deseado; por ejemplo, destruir todos los sistemas computacionales de la Tierra y volar por los aires todas las infraestructuras que dependen de ellos, lanzar los misiles nucleares, liberar todos los virus almacenados en los laboratorios y construir máquinas que fabriquen terminators para acabar con los flecos.

Y todo ello sin mancharse las manos o sus extremidades equivalentes; fácil, barato, rápido y limpio. Nueve de cada diez alienígenas hostiles inteligentes elegirían la teleinvasión y la recomendarían a sus amigos. Tiene mucho más sentido que otras opciones como, por ejemplo, enviar una flota de absurdas naves con forma de plato de postre que presuntamente tratan de ocultarse pero que se esconden con la misma facilidad que un elefante detrás de una palmera, ya que algún diseñador torpe las llenó de luces por todas partes. Hippke y Learned lo plantean de forma más seria:

Aunque se ha argumentado que una ETI [inteligencia extraterrestre] sostenible no será probablemente dañina, no podemos excluir esta posibilidad. Después de todo, es más barato para una ETI enviar un mensaje malicioso para erradicar a los humanos en comparación con enviar naves de guerra.

Respecto a si una ETI sería hostil o no, nadie puede saberlo. Nuestra visión fluctúa con el espíritu de los tiempos entre los invasores despiadados y los semidioses benevolentes. Desde hace años, el físico Stephen Hawking ha advertido repetidamente de que enviar mensajes al espacio delatando nuestra presencia puede no ser una buena idea. Incluso alguien que se dedica a escuchar posibles emails de las estrellas como Seth Shostak, el astrónomo jefe del Instituto SETI (Búsqueda de Inteligencia Extraterrestre), suele comparar nuestro posible encuentro con alienígenas a la llegada de los europeos a América, lo que no resultó demasiado grato para los americanos.

Si alguien decidiera teleinvadirnos, su único riesgo sería que tiráramos su correo sin abrirlo. Pero tratándose de una especie como la nuestra, incauta y deseosa de conseguir algún follower galáctico, no sería difícil hacernos caer en la trampa si recibiéramos un correo bajo el encabezado “I love you“. Sobre todo si además llevara algún emoji simpático:

Resultado de imagen de alien emoji

Ante todo este panorama, Hippke y Learned recomiendan varias líneas de acción: encerrar el mensaje en una prisión, una especie de cuarentena informática aislada de la red, aunque esto podría resultar imposible si los destinatarios fueran múltiples y en todo caso el virus podría encontrar la manera de escapar, incluso convenciendo a sus captores; descontaminarlo, aunque sería complicado garantizar una descontaminación completa, sobre todo si el mensaje no se conoce en profundidad; o simplemente imprimirlo para analizarlo, porque es difícil que el papel haga ningún daño.

Claro que en su estudio Hippke y Learned pasan por alto un salto conceptual algo aventurado, y es dar por hecho que los alienígenas serían tan expertos en nuestros sistemas de computación como para poder explotarlos en su propio beneficio. Pero en cualquier caso, concluyen que finalmente solo nos quedarían dos opciones: “podemos escoger entre destruir el mensaje o asumir el riesgo”, aunque advierten de que “los posibles beneficios de unirnos a una red galáctica podrían ser considerables”.

Por si acaso, y si reciben un mensaje de alguien que solicita su ayuda para sacar cien mil millones de créditos galácticos de una cuenta corriente en un banco de Alfa Centauri y a cambio les promete el 10%, mejor no lo abran: reenvíenlo al Instituto SETI, que ellos ya sabrán qué hacer. Y si no es así, al menos no habrán sido ustedes los responsables del exterminio de la humanidad.

Una bola de discoteca orbita sobre nuestras cabezas

El riesgo de la grandilocuencia siempre es caer en la pedantería. Pero cuando además nadie comparte tu visión de grandeza, corres el riesgo añadido de caer en el más sonrojante de los ridículos. Cuando el neozelandés Peter Beck decidió poner una estrella artificial en el cielo, lo hizo bajo el discurso de que “durante milenios, los humanos se han concentrado en sus problemas y vidas terrestres. Raramente nos paramos como especie, miramos a las estrellas y tomamos conciencia de nuestra posición en el universo como una mota de polvo dolorosamente minúscula en la grandeza del todo”. Pero poco podía imaginar Beck que su grandioso proyecto recibiría calificativos tan afectuosos como “basura”, “vandalismo astronómico”, “graffiti” o “spam espacial”.

Beck es el fundador de Rocket Lab, una compañía aeroespacial que ha desarrollado un cohete ligero para lanzar satélites de pequeño tamaño al espacio. Pero quién sabe cómo, a Beck se le ocurrió emplear su lanzadera para otro fin: poner en órbita una esfera geodésica de un metro de diámetro fabricada en fibra de carbono y con 76 paneles de espejo. Es decir, algo parecido a una bola de discoteca.

El creador de la idea bautizó su bola como Humanity Star, la Estrella de la Humanidad, y la lanzó al espacio el pasado 21 de enero. Según Beck, la bola gira rápidamente reflejando el sol y creando “un flash de luz que puede verse contra un fondo de estrellas”. Completa una vuelta a la Tierra cada 90 minutos y será visible desde cualquier lugar del mundo (lógicamente, no al mismo tiempo) como “símbolo brillante y recordatorio para todos aquellos en la Tierra de nuestro frágil lugar en el universo”.

Humanity Star. Imagen de Rocket Lab.

Humanity Star. Imagen de Rocket Lab.

Pero a Beck debió de calentársele alguna neurona, y decidió proseguir: “La humanidad es finita y no estaremos aquí para siempre. Y aún a pesar de esta casi inconcebible insignificancia, la humanidad es capaz de grandes y amables cosas cuando nos reconocemos como una especie, responsable de cuidar juntos unos de otros y de nuestro planeta…”. No importa en qué lugar del mundo estés, rico o pobre, en conflicto o en paz…”. “Espera a que la Estrella de la Humanidad esté sobre ti, lleva al exterior a tus seres queridos para mirar arriba y reflexionar…”.

Aquí es donde, si este blog tuviera efectos sonoros, la aguja del tocadiscos saltaría chillando ese clásico “riiiiip”. Porque como era de esperar, los astrónomos no solamente no han elevado sus mecheros encendidos, sino que casi han hecho un remake de aquella escena de la lapidación de La vida de Brian. Estos son algunos de sus comentarios en Twitter:

¿Así que estás bloqueando nuestra visión de las estrellas reales y creando contaminación lumínica atmosférica para recordarnos que miremos a las estrellas que no podemos ver en parte gracias a tu estúpido satélite? Buen trabajo.

Wow. Graffiti espacial intencionadamente brillante y a largo plazo. Muchas gracias, Rocket Lab.

Así que el primer acto de Nueva Zelanda como potencia espacial es contaminar el cielo nocturno. Para toda la humanidad. Esta es buena.

Lo único bueno de la Estrella de la Humanidad (también conocida como proyecto neozelandés de polución del cielo nocturno) es que se quemará en nueve meses.

Quizá estén pensando que la operación de Elon Musk y su deportivo espacial es igualmente ridícula. Puede ser, pero a diferencia de Beck, tal vez a Musk le ha salvado el no tratar de revestir su proyecto de grandilocuencia. Al contrario, cultiva una cierta imagen gamberra, como cuando justificó la elección de la carga de su cohete diciendo que cualquier otra opción habría sido “aburrida”. En el fondo, lo cierto es que Musk no tenía ninguna garantía de que el cohete despegara sin volar en mil pedazos, y aprovechar el primer lanzamiento del Falcon Heavy para transportar una misión científica habría sido demasiado arriesgado.

Conviene aclarar que no todos los comentarios sobre la Humanity Star han sido negativos; buena parte del público en general ha acogido la iniciativa con agrado, pero es evidente que Beck no se ha ganado el aplauso de los astrónomos, lo cual por otra parte él ya debía de tener previsto. En el fondo, y con un presupuesto infinitamente menor que el de Musk, Beck ha conseguido algo de publicidad extra para su compañía.

Por cierto y por si les interesa verla, ya que está ahí arriba, el localizador de la web del proyecto me informa hoy de que en mi posición (cerca de Madrid) “la Humanity Star tiene la mejor oportunidad de visibilidad dentro de 17 días. Durará unos 4 minutos. Un horario más preciso estará disponible 3 días antes del paso previsto”. Así que volveremos a consultarlo dentro de un par de semanas. Y si les apetece, vayan preparando el disfraz de Tony Manero.

Qué es y qué no es el lanzamiento del cohete Falcon Heavy de SpaceX

El episodio del primer lanzamiento del cohete Falcon Heavy de SpaceX ha sido lo más cool que ha ocurrido en el espacio en mucho tiempo. Si es que alguna vez ha habido algo más cool que la versión en carne y hueso de Tony Stark (Iron Man) llevando al espacio un superdeportivo rojo descapotable conducido por un astronauta maniquí al ritmo del Space Oddity de Bowie. Mi detalle favorito es que Starman, el piloto, lleve el brazo apoyado en la ventanilla.

Lanzamiento del cohete Falcon Heavy de SpaceX el 6 de febrero de 2018 desde el Centro Espacial Kennedy. Imagen de SpaceX.

Lanzamiento del cohete Falcon Heavy de SpaceX el 6 de febrero de 2018 desde el Centro Espacial Kennedy. Imagen de SpaceX.

Creo inobjetable que la operación diseñada y ejecutada con éxito por Elon Musk es la mayor, más grandiosa, insuperable, estrambótica y cara maniobra publicitaria de la historia. Lo cual no implica que sea solo una maniobra publicitaria. Pero otra cuestión es que la misión en sí esté realmente a la altura de todo lo que la maniobra publicitaria ha inspirado.

Es posible que el gran éxito del espectáculo haya llevado a sobrevalorar el alcance real de lo conseguido ayer: ni es el cohete más grande de la historia, ni el primero privado que se lanza al espacio, ni el primero cuyos propulsores se recuperan para reutilizarse, ni nos llevará a Marte en el futuro. Sí es el primero que lleva un coche al espacio con un maniquí como conductor. Más detalles en esta serie de preguntas y respuestas:

¿Es el Falcon Heavy el cohete más grande de la historia?

El Falcon Heavy es el cohete más grande actualmente en servicio, pero no el mayor de la historia; este puesto continúa ocupándolo el Saturno V de la NASA, que llevó las misiones Apolo a la Luna. El Saturno V era 40 metros más alto, pesaba el doble y su capacidad de carga multiplicaba la del Falcon Heavy.

¿Qué tiene de especial el Falcon Heavy?

El cohete de Musk es, evidentemente, mucho más barato que el Saturno V, ya que sus propulsores son reutilizables. Su puesta en marcha con éxito parece garantizar que en el futuro será una de las opciones disponibles para enviar grandes cargas al espacio.

¿Es el primer cohete con propulsores reutilizables?

Una de las claves de la apuesta tecnológica de Musk es la recuperación de los propulsores de los cohetes para volver a utilizarlos en nuevas misiones, lo que abarata los costes. El Falcon Heavy sigue la estela de su hermano más pequeño el Falcon 9, que ya ha despegado en varias ocasiones con la recuperación de su fase propulsora. El Falcon Heavy lleva dos propulsores laterales y uno central. Los dos primeros han podido recuperarse, mientras que el tercero se ha perdido en el océano.

Aterrizaje de los propulsores laterales del cohete Falcon Heavy de SpaceX el 6 de febrero de 2018 en el Centro Espacial Kennedy. Imagen de SpaceX.

Aterrizaje de los propulsores laterales del cohete Falcon Heavy de SpaceX el 6 de febrero de 2018 en el Centro Espacial Kennedy. Imagen de SpaceX.

¿Por qué no se han fabricado antes cohetes reciclables?

En los tiempos de la carrera espacial entre EEUU y la URSS, es poco probable que alguien llegara a plantearse el diseño de cohetes reciclables, porque no tenía sentido. En EEUU, el gobierno federal pagaba los cohetes y los contratistas privados los construían. Parece lógico que a estas empresas les interesara seguir fabricando y vendiendo cohetes nuevos para cada misión. Por otra parte, la carrera espacial era una guerra, y en una guerra nadie se detiene a recoger los casquillos. Interesaba la eficacia, no la eficiencia. Hoy las empresas privadas no se limitan a fabricar componentes para las agencias espaciales públicas, sino que actúan también como operadores, por lo que su negocio depende de su capacidad de reducir los costes.

¿Es el primer cohete privado que se lanza al espacio?

No, no lo es. Desde 2012 SpaceX ha utilizado el antecesor del Falcon Heavy, el Falcon 9, para enviar misiones no tripuladas de suministro de carga a la Estación Espacial Internacional.

¿Nos llevará el Falcon Heavy a Marte?

Musk ha desechado ya la idea de utilizar el Falcon Heavy para su plan de establecer una colonia en Marte en la próxima década. En su lugar creará un cohete aún mayor llamado informalmente Big Fucking Rocket (BFR) y que por el momento solo es un dibujo animado. Será tarea de los expertos en ingeniería aeroespacial determinar cuánto de lo ya desarrollado para los Falcon podrá aplicarse al BFR, pero en cualquier caso, todo nuevo vehículo espacial es un proyecto diferente que deberá emprender su propia carrera de fracasos y éxitos.

¿Ha marcado el éxito del Falcon Heavy un hito histórico en la exploración espacial?

Así lo han presentado muchos medios, y desde luego que es cuestión de opiniones, pero tal vez esta afirmación sea como mínimo una exageración muy generosa. Sería acertado decir que el Falcon Heavy reabre una etapa en el transporte espacial estadounidense que se entrecerró con el fin de los grandes cohetes de la NASA, y que se cerró del todo cuando se jubiló la flota de transbordadores espaciales. Las misiones de carga han dependido en los últimos años sobre todo de los cohetes Soyuz rusos y los Ariane europeos, sin contar los de desarrollo propio que utilizan otras potencias espaciales. En cuanto a las misiones científicas, actualmente existe una gran variedad de vehículos lanzadores que se emplean regularmente, ya que en general las sondas científicas no requieren cohetes de carga muy pesada.