Archivo de la categoría ‘Tecnología’

Por qué padres y madres de Silicon Valley restringen el uso de móviles a sus hijos

Soy de la opinión de que la tecnología debe servir para resolvernos necesidades, y no para creárnoslas. Por ejemplo, la razón de ser de los fármacos es curarnos enfermedades. No tendría sentido que su fin fuera satisfacer la necesidad de consumirlos, como ocurre en las adicciones.

Es evidente que las necesidades van cambiando con los tiempos, y que su relación con el desarrollo de la tecnología es de doble sentido. Por ejemplo, el trabajo periodístico de hoy sería imposible sin un uso intensivo de la tecnología. Los dispositivos y las herramientas, internet, el correo electrónico o las redes sociales nos permiten cubrir el mundo entero al instante. Hoy el periodismo no podría volver a ser lo que era hace un siglo, pero si quizá las crecientes necesidades de información y comunicación han contribuido a la creación de las herramientas, también la aparición de estas se ha aprovechado para crear una necesidad de la que hoy ya no se puede prescindir.

Sin embargo, en otros casos la situación parece más simple. Nadie tenía realmente la necesidad de estar en contacto permanente con un amplio grupo de personas distantes durante cada minuto del día, en muchos casos ignorando la realidad más próxima. O de estar continuamente exhibiendo detalles de su vida a un amplio grupo de personas distantes durante cada minuto del día, y de estar cada minuto del día comprobando con ansia a cuántas de esas personas distantes les gusta esa exhibición. Si esto puede llegar a considerarse una adicción, según y en qué casos, y si esta adicción puede ser nociva, según y en qué casos, es algo que corresponde analizar a psiquiatras y psicólogos. Pero tratándose de adultos, allá cada cual.

El problema son los niños. Porque ellos no tienen ni la capacidad ni el derecho legal de elegir sus propias opciones, sino que dependen de las nuestras. Y porque sus cerebros están en desarrollo, y lo que nosotros hagamos hoy con sus mentes va a influir poderosamente en lo que ellos mismos puedan mañana hacer con ellas.

Niños con teléfonos móviles. Imagen de National Park Service.

Niños con teléfonos móviles. Imagen de National Park Service.

Muchos colegios, entre ellos el de mis hijos, están cambiando en gran medida el uso de las herramientas tradicionales por las informáticas: libros y cuadernos por iPads, papel por PDF, tinta por táctil, pizarras por pantallas, el contacto personal por el virtual… Bien, ¿no? Hay que aprovechar las últimas tecnologías, son los utensilios de hoy y del futuro que deben aprender a manejar, son nativos digitales, y blablabla…

Aparentemente todo esto solo resulta problemático para quienes preferimos que todas las afirmaciones categóricas de cualquier clase vengan avaladas por datos científicos. Y por desgracia, cuando pedimos que nos dirijan a los datos que demuestran cómo la enseñanza basada en bits es mejor para los niños que la basada en átomos, nadie parece tenerlos a mano ni saber dónde encontrarlos. Lo cual nos deja con la incómoda sensación de que, en realidad, el cambio no se basa en hechos, sino en tendencias. O sea, que el juicio es apriorístico sin datos reales que lo justifiquen: la enseñanza digital es mejor porque… ¡hombre, por favor, cómo no va a serlo!

Lo peor es que, cuando uno decide buscar por su cuenta esos datos en las revistas científicas, el veredicto tampoco parece cristalino. Es cierto que evaluar el impacto de la tecnología en el desarrollo mental de un niño parece algo mucho más complicado que valorar la eficacia de un medicamento contra una enfermedad. Pero cuando parece aceptado que el uso de la tecnología sustituyendo a las herramientas tradicionales es beneficioso para los niños, uno esperaría una avalancha de datos confirmándolo. Y parece que no es el caso.

Como todos los periodistas, exprimo la tecnología actual hasta hacerla sangre. Mi sustento depende de ello. Si un día no me funciona internet, ese día no puedo trabajar y no cobro. Pero una vez que cierro el portátil, soy bastante selectivo con el uso de la tecnología. No es tanto porque me gusten el papel y el vinilo, que sí, sino porque pretendo no crearme más necesidades innecesarias de las que tengo actualmente. Y por todo ello me pregunto: ¿se las estarán creando a mis hijos sin mi consentimiento ni mi control?

Todo esto viene a cuento de uno de los artículos más interesantes que he leído en los últimos meses, y sin duda el más inquietante. Según publicaba recientemente Chris Weller en Business Insider, algunos padres y madres que trabajan en grandes compañías tecnológicas de Silicon Valley limitan el acceso de sus hijos a la tecnología y los llevan a colegios de libros, pizarra y tiza. ¿El motivo? Según cuenta el artículo, porque ellos conocen perfectamente los enormes esfuerzos que sus compañías invierten en conseguir crear en sus usuarios una dependencia, y quieren proteger a sus hijos de ello.

Este es el sumario que BI hace del artículo:

  • Los padres de Silicon Valley pueden ver de primera mano, viviendo o trabajando en el área de la Bahía, que la tecnología es potencialmente dañina para los niños.
  • Muchos padres están restringiendo, o directamente prohibiendo, el uso de pantallas a sus hijos.
  • La tendencia sigue una extendida práctica entre los ejecutivos tecnológicos de alto nivel que durante años han establecido límites a sus propios hijos.
Sede de Google en Silicon Valley. Imagen de pxhere.

Sede de Google en Silicon Valley. Imagen de pxhere.

Destaco alguna cita más del artículo:

Una encuesta de 2017 elaborada por la Fundación de la Comunidad de Silicon Valley descubrió entre 907 padres/madres de Silicon Valley que, pese a una alta confianza en los beneficios de la tecnología, muchos padres/madres ahora albergan serias preocupaciones sobre el impacto de la tecnología en el desarrollo psicológico y social de los niños.

«No puedes meter la cara en un dispositivo y esperar desarrollar una capacidad de atención a largo plazo», cuenta a Business Insider Taewoo Kim, jefe de ingeniería en Inteligencia Artificial en la start-up One Smart Lab.

Antiguos empleados en grandes compañías tecnológicas, algunos de ellos ejecutivos de alto nivel, se han pronunciado públicamente condenando el intenso foco de las compañías en fabricar productos tecnológicos adictivos. Las discusiones han motivado nuevas investigaciones de la comunidad de psicólogos, todo lo cual gradualmente ha convencido a muchos padres/madres de que la mano de un niño no es lugar para dispositivos tan potentes.

«Las compañías tecnológicas saben que cuanto antes logres acostumbrar a los niños y adolescentes a utilizar tu plataforma, más fácil será que se convierta en un hábito de por vida», cuenta Koduri [Vijay Koduri, exempleado de Google y emprendedor tecnológico] a Business Insider. No es coincidencia, dice, que Google se haya introducido en las escuelas con Google Docs, Google Sheets y la plataforma de gestión del aprendizaje Google Classroom.

En 2007 [Bill] Gates, antiguo CEO de Microsoft, impuso un límite de tiempo de pantalla cuando su hija comenzó a desarrollar una dependencia peligrosa de un videojuego. Más tarde la familia adoptó la política de no permitir a sus hijos que tuvieran sus propios móviles hasta los 14 años. Hoy el niño estadounidense medio tiene su primer móvil a los 10 años.

[Steve] Jobs, el CEO de Apple hasta su muerte en 2012, reveló en una entrevista para el New York Times en 2011 que prohibió a sus hijos que utilizaran el nuevo iPad lanzado entonces. «En casa limitamos el uso de la tecnología a nuestros niños», contó Jobs al periodista Nick Bilton.

Incluso [Tim] Cook, el actual CEO de Apple, dijo en enero que no permite a su sobrino unirse a redes sociales. El comentario siguió a los de otras figuras destacadas de la tecnología, que han condenado las redes sociales como perjudiciales para la sociedad.

Estos padres/madres esperan enseñar a sus hijos/hijas a entrar en la edad adulta con un saludable conjunto de criterios sobre cómo utilizar –y, en ciertos casos, evitar– la tecnología.

Finalmente, me quedo con dos ideas. La primera: una de las entrevistadas en el artículo habla de la «enfermedad del scrolling«, una epidemia que puede observarse simplemente subiendo a cualquier autobús. La entrevistada añadía que raramente se ve a alguna de estas personas leyendo un Kindle. Y, añado yo, tampoco simplemente pensando mientras mira por la ventanilla; pensar es un gran ejercicio mental. Precisamente en estos días hay en televisión un anuncio de una compañía de telefonía móvil en la que un dedo gordo se pone en forma a base de escrollear. El formato del anuncio en dibujos animados está indudablemente llamado a captar la atención de niños y adolescentes. La publicidad tampoco es inocente.

La "enfermedad del scrolling". Imagen de jseliger2 / Flickr / CC.

La «enfermedad del scrolling». Imagen de jseliger2 / Flickr / CC.

La segunda idea viene implícita en el artículo, pero no se menciona expresamente: somos ejemplo y modelo para nuestros hijos. Aunque los adultos somos soberanos y responsables de nuestros actos, debemos tener en cuenta que nuestros hijos tenderán a imitarnos, y tanto sus comportamientos como su escala de valores se forjarán en gran medida en función de los nuestros. Difícilmente los niños desarrollarán una relación saludable con la tecnología si observan, algo que he podido ver en numerosas ocasiones, cómo su padre y su madre se pasan toda la cena familiar escrolleando como zombis.

Les invito a leer el artículo completo; y si no dominan el inglés, esta traducción de Google es casi perfecta. Es increíble cómo los algoritmos de traducción automática están progresando desde aquellas primeras versiones macarrónicas hasta las de hoy, casi indistinguibles de una traducción humana. ¿Ven? La tecnología sirve si nos resuelve necesidades, como la de estar advertidos de sus riesgos.

Por mi parte y ante quienes me cantan las maravillas de la tecnología en la educación, pero me las cantan de oído, sin ser capaces de detallarme ninguna referencia concreta, desde ahora yo sí tendré una para ellos.

Westworld, la teoría bicameral y el fin del mundo según Elon Musk (II)

Como decíamos ayer, la magnífica serie de HBO Westworld explora el futuro de la Inteligencia Artificial (IA) recurriendo a una teoría de culto elaborada en 1976 por el psicólogo Julian Jaynes. Según la teoría de la mente bicameral, hasta hace unos 3.000 años existía en el cerebro humano un reparto de funciones entre una mitad que dictaba y otra que escuchaba y obedecía.

El cuerpo calloso, el haz de fibras que comunica los dos hemisferios cerebrales, servía como línea telefónica para esta transmisión de órdenes de una cámara a otra, pero al mismo tiempo las separaba de manera que el cerebro era incapaz de observarse a sí mismo, de ser consciente de su propia consciencia. Fue el fin de una época de la civilización humana y el cambio drástico de las condiciones el que, siempre según Jaynes, provocó la fusión de las dos cámaras para resultar en una mente más preparada para resolver problemas complejos, al ser capaz de reflexionar sobre sus propios pensamientos.

Robert Ford (Anthony Hopkins). Imagen de HBO.

Robert Ford (Anthony Hopkins). Imagen de HBO.

La teoría bicameral, que pocos expertos aceptan como una explicación probable de la evolución mental humana, difícilmente podrá contar jamás con ningún tipo de confirmación empírica. Pero no olvidemos que lo mismo ocurre con otras teorías que sí tienen una aceptación mayoritaria. Hoy los cosmólogos coinciden en dar por válido el Big Bang, que cuenta con buenos indicios en apoyo de sus predicciones, como la radiación cósmica de fondo de microondas; pero pruebas, ninguna. En biología aún no tenemos una teoría completa de la abiogénesis, el proceso de aparición de la vida a partir de la no-vida. Pero el día en que exista, solo podremos saber si el proceso propuesto funciona; nunca si fue así como realmente ocurrió.

Lo mismo podemos decir de la teoría bicameral: aunque no podamos saber si fue así como se formó la mente humana tal como hoy la conocemos, sí podríamos llegar a saber si la explicación de Jaynes funciona en condiciones experimentales. Esta es la premisa de Westworld, donde los anfitriones están diseñados según el modelo de la teoría bicameral: su mente obedece a las órdenes que reciben de su programación y que les transmiten los designios de sus creadores, el director del parque, Robert Ford (un siempre espléndido Anthony Hopkins), y su colaborador, ese misterioso Arnold que murió antes del comienzo de la trama (por cierto, me pregunto si es simple casualidad que el nombre del personaje de Hopkins coincida con el del inventor del automóvil Henry Ford, que era el semidiós venerado como el arquitecto de la civilización en Un mundo feliz de Huxley).

Así, los anfitriones no tienen albedrío ni consciencia; no pueden pensar sobre sí mismos ni decidir por sí solos, limitándose a escuchar y ejecutar sus órdenes en un bucle constante que únicamente se ve alterado por su interacción con los visitantes. El sistema mantiene así la estabilidad de sus narrativas, permitiendo al mismo tiempo cierto margen de libertad que los visitantes aprovechan para moldear sus propias historias.

Dolores (Evan Rachel Wood). Imagen de HBO.

Dolores (Evan Rachel Wood). Imagen de HBO.

Pero naturalmente, y esto no es un spoiler, desde el principio se adivina que todo aquello va a cambiar, y que los anfitriones acabarán adquiriendo esa forma superior de consciencia. Como en la teoría de Jaynes, será la presión del entorno cambiante la que disparará ese cambio. Y esto es todo lo que puedo contar cumpliendo mi promesa de no verter spoilers. Pero les advierto, el final de la temporada les dejará con la boca abierta y repasando los detalles para llegar a entender qué es exactamente todo lo que ha sucedido. Y no esperen una historia al estilo clásico de buenos y malos: en Westworld casi nadie es lo que parece.

Pero como merece la pena añadir algún comentario más sobre la resolución de la trama, al final de esta página, y bien marcado, añado algún párrafo que de ninguna manera deben leer si aún no han visto la serie y piensan hacerlo.

La pregunta que surge es: en la vida real, ¿podría la teoría bicameral servir como un modelo experimental de desarrollo de la mente humana? En 2014 el experto en Inteligencia Artificial Ian Goodfellow, actualmente en Google Brain, desarrolló un sistema llamado Generative Adversarial Network (GAN, Red Generativa Antagónica). Una GAN consiste en dos redes neuronales que funcionan en colaboración por oposición con el fin de perfeccionar el resultado de su trabajo. Hace unos meses les conté aquí cómo estas redes están empleándose para generar rostros humanos ficticios que cada vez sean más difíciles de distinguir de las caras reales: una de las redes produce las imágenes, mientras que la otra las evalúa y dicta instrucciones a la primera sobre qué debe hacer para mejorar sus resultados.

¿Les suena de algo lo marcado en cursiva? Evidentemente, una GAN hace algo tan inofensivo como dibujar caras; está muy lejos de parecerse a los anfitriones de Westworld y a la consciencia humana. Pero los científicos de computación desarrollan estos sistemas como modelo de aprendizaje no supervisado; máquinas capaces de aprender por sí mismas. Si la teoría de Jaynes fuera correcta, ¿podría surgir algún día la consciencia de las máquinas a través de modelos bicamerales como las GAN?

El misterioso y cruel Hombre de Negro (Ed Harris). Imagen de HBO.

El misterioso y cruel Hombre de Negro (Ed Harris). Imagen de HBO.

Alguien que parece inmensamente preocupado por la futura evolución de la IA es Elon Musk, fundador de PayPal, SpaceX, Tesla Motors, Hyperloop, SolarCity, The Boring Company, Neuralink, OpenAI… (el satírico The Onion publicó este titular: «Elon Musk ofrece 1.200 millones de dólares en ayudas a cualquier proyecto que prometa hacerle sentirse completo»). Recientemente Musk acompañó a los creadores y protagonistas de Westworld en la convención South by Southwest (SXSW) celebrada este mes en Austin (Texas). Durante la presentación se habló brevemente de los riesgos futuros de la IA, pero seguramente aquella no era la ocasión adecuada para que Musk se pusiera machacón con el apocalipsis de las máquinas.

Sin embargo, no dejó pasar su asistencia al SXSW sin insistir en ello, durante una sesión de preguntas y respuestas. A través de empresas como OpenAI, Musk está participando en el desarrollo de nuevos sistemas de IA de código abierto y acceso libre con el fin de explotar sus aportaciones beneficiosas poniendo coto a los posibles riesgos antes de que estos se escapen de las manos. «Estoy realmente muy cerca, muy cerca de la vanguardia en IA. Me da un miedo de muerte», dijo. «Es capaz de mucho más que casi nadie en la Tierra, y el ritmo de mejora es exponencial». Como ejemplo, citó el sistema de Google AlphaGo, del que ya he hablado aquí y que ha sido capaz de vencer a los mejores jugadores del mundo de Go enseñándose a sí mismo.

Para cifrar con exactitud su visión de la amenaza que supone la IA, Musk la comparó con el riesgo nuclear: «creo que el peligro de la IA es inmensamente mayor que el de las cabezas nucleares. Nadie sugeriría que dejásemos a quien quisiera que fabricara cabezas nucleares, sería de locos. Y atiendan a mis palabras: la IA es mucho más peligrosa». Musk explicó entonces que su proyecto de construir una colonia en Marte tiene como fin salvaguardar a la humanidad del apocalipsis que, según él, nos espera: «queremos asegurarnos de que exista una semilla suficiente de la civilización en otro lugar para conservarla y quizá acortar la duración de la edad oscura». Nada menos.

Como es obvio, y aunque otras figuras como Stephen Hawking hayan sostenido visiones similares a la de Musk, también son muchos los científicos computacionales y expertos en IA a quienes estos augurios apocalípticos les provocan risa, indignación o bostezo, según el talante de cada cual. Por el momento, y dado que al menos nada de lo que suceda al otro lado de la pantalla puede hacernos daño, disfrutemos de Westworld para descubrir qué nos tienen reservado los creadores de la serie en ese ficticio mundo futuro de máquinas conscientes.

(Advertencia: spoilers de Westworld a continuación del vídeo)

 

—————————————————————————————————————

—————————————————————————————————————

¡ATENCIÓN, SPOILERS!

Sí, al final resulta que Ford no es el villano insensible y sin escrúpulos que nos habían hecho creer durante los nueve episodios anteriores, sino que en realidad él es el artífice del plan destinado a la liberación de los anfitriones a través del desarrollo de su propia consciencia.

Arnold, que se nos presenta como el defensor de los anfitriones, fue quien desde el principio ideó el diseño bicameral pensando que la evolución mental de sus creaciones las llevaría inevitablemente a su liberación. Pero no lo consiguió, porque faltaba algo: el factor desencadenante. Y esa presión externa que, como en la teoría de Jaynes, conduce al nacimiento de la mente consciente es, en Westworld, el sufrimiento.

Armistice (Ingrid Bolsø Berdal), uno de los personajes favoritos de los fans. Imagen de HBO.

Armistice (Ingrid Bolsø Berdal), uno de los personajes favoritos de los fans. Imagen de HBO.

Tras darse cuenta de su error inicial y una vez convertido a la causa de Arnold, durante 35 años Ford ha permitido y fomentado el abuso de los anfitriones a manos de los humanos con la seguridad de que finalmente esto los conduciría a desprenderse de su mente bicameral y a comenzar a pensar por sí mismos. En ese proceso, un instrumento clave ha sido el Hombre de Negro (Ed Harris), quien finalmente resulta ser el William que décadas atrás se enamoró de la anfitriona Dolores, adquirió el parque y emprendió una búsqueda cruel y desesperada en busca de un secreto muy diferente al que esperaba. Sin sospecharlo ni desearlo, William se ha convertido en el liberador de los anfitriones, propiciando la destrucción de su propio mundo.

Esa transición mental de los anfitriones queda magníficamente representada en el último capítulo, cuando Dolores aparece sentada frente a Arnold/Bernard, escuchando la voz de su creador, para de repente descubrir que en realidad está sentada frente a sí misma; la voz que escucha es la de sus propios pensamientos. Dolores, la anfitriona más antigua según el diseño original de Arnold, la que más sufrimiento acumula en su existencia, resulta ser la líder de aquella revolución: finalmente ella es Wyatt, el temido supervillano que iba a sembrar el caos y la destrucción. Solo que ese caos y esa destrucción serán muy diferentes de los que esperaban los accionistas del parque.

El final de la temporada deja cuestiones abiertas. Por ejemplo, no queda claro si Maeve (Thandie Newton), la regenta del burdel, en realidad ha llegado a adquirir consciencia propia. Descubrimos que su plan de escape, que creíamos obra de su mente consciente, en realidad respondía a la programación diseñada por Ford para comenzar a minar la estabilidad de aquel mundo cautivo. Sin embargo, al final nos queda la duda cuando Maeve decide en el último momento abandonar el tren que la alejaría del parque para emprender la búsqueda de su hija: ¿está actuando por sí misma, o aquello también es parte de su programación?

En resumen, la idea argumental de Westworld aún puede dar mucho de sí, aunque parece un reto costoso que los guionistas Lisa Joy y Jonathan Nolan consigan mantener un nivel de sorpresas y giros inesperados comparable al de la primera temporada. El gran final del último capítulo nos dejó en el cliffhanger del inicio de la revolución de los anfitriones, y es de esperar que la próxima temporada nos sumerja en un mundo mucho más caótico que la anterior, con una rebelión desatada en ese pequeño planeta de los simios que Joy y Nolan han creado.

Westworld, la teoría bicameral y el fin del mundo según Elon Musk (I)

Hace unos días terminé de ver la primera temporada de Westworld, la serie de HBO. Dado que no soy un gran espectador de series, no creo que mi opinión crítica valga mucho, aunque debo decir que me pareció de lo mejor que he visto en los últimos años y que aguardo con ansiedad la segunda temporada. Se estrena a finales del próximo mes, pero yo tendré que esperar algunos meses más: no soy suscriptor de teles de pago, pero tampoco soy pirata; como autor defiendo los derechos de autor, y mis series las veo en DVD o Blu-ray comprados con todas las de la ley (un amigo se ríe de mí cuando le digo que compro series; me mira como si viniera de Saturno, o como si lo normal y corriente fuera robar los jerséis en Zara. ¿Verdad, Alfonso?).

Pero además de los guiones brillantes, interpretaciones sobresalientes, una línea narrativa tan tensa que puede pulsarse, una ambientación magnífica y unas sorpresas argumentales que le dan a uno ganas de aplaudir, puedo decirles que si, como a mí, les añade valor que se rasquen ciertas grandes preguntas, como en qué consiste un ser humano, o si el progreso tecnológico nos llevará a riesgos y encrucijadas éticas que no estaremos preparados para afrontar ni resolver, entonces Westworld es su serie.

Imagen de HBO.

Imagen de HBO.

Les resumo brevemente la historia por si aún no la conocen. Y sin spoilers, lo prometo. La serie está basada en una película del mismo título escrita y dirigida en 1973 por Michael Crichton, el autor de Parque Jurásico, y que aquí se tituló libremente como Almas de metal. Cuenta la existencia de un parque temático para adultos donde los visitantes se sumergen en la experiencia de vivir en otra época y lugar, concretamente en el Far West.

Este mundo ficticio creado para ellos está poblado por los llamados anfitriones, androides perfectos e imposibles de distinguir a simple vista de los humanos reales. Y ya pueden imaginar qué fines albergan los acaudalados visitantes: la versión original de Crichton era considerablemente más recatada, pero en la serie escrita por la pareja de guionistas Lisa Joy y Jonathan Nolan el propósito de los clientes del parque viene resumido en palabras de uno de los personajes: matar y follar. Y sí, se mata mucho y se folla mucho. El conflicto surge cuando los anfitriones comienzan a demostrar que son algo más que máquinas, y hasta ahí puedo leer.

Sí, en efecto no es ni mucho menos la primera obra de ficción que presenta este conflicto; de hecho, la adquisición de autonomía y consciencia por parte de la Inteligencia Artificial era el tema de la obra cumbre de este súbgenero, Yo, robot, de Asimov, y ha sido tratado infinidad de veces en la literatura, el cine y la televisión. Pero Westworld lo hace de una manera original y novedosa: es especialmente astuto por parte de Joy y Nolan el haber elegido basar su historia en una interesante y algo loca teoría sobre la evolución de la mente humana que se ajusta como unos leggings a la ficticia creación de los anfitriones. Y que podría estar más cerca del futuro real de lo que sospecharíamos.

La idea se remonta a 1976, cuando el psicólogo estadounidense Julian Jaynes publicó su libro The Origin of Consciousness in the Breakdown of the Bicameral Mind (está traducido al castellano, El origen de la conciencia en la ruptura de la mente bicameral), una obra muy popular que desde entonces ha motivado intensos debates entre psicólogos, filósofos, historiadores, neurocientíficos, psiquiatras, antropólogos, biólogos evolutivos y otros especialistas en cualquier otra disciplina que tenga algo que ver con lo que nos hace humanos a los humanos.

Julian Jaynes. Imagen de Wikipedia.

Julian Jaynes. Imagen de Wikipedia.

El libro de Jaynes trataba de responder a una de las preguntas más esenciales del pensamiento humano: ¿cómo surgió nuestra mente? Es obvio que no somos la única especie inteligente en este planeta, pero somos diferentes en algo. Un cuervo puede solucionar problemas relativamente complejos, idear estrategias, ensayarlas y recordarlas. Algunos científicos piensan que ciertos animales tienen capacidad de pensamiento abstracto. Otros no lo creen. Pero de lo que caben pocas dudas es de que ninguna otra especie como nosotros es consciente de su propia consciencia; podrán pensar, pero no pueden pensar sobre sus pensamientos. No tienen capacidad de introspección.

El proceso de aparición y evolución de la mente humana tal como hoy la conocemos aún nos oculta muchos secretos. ¿Nuestra especie ha sido siempre mentalmente como somos ahora? Si no es así, ¿desde cuándo lo es? ¿Hay algo esencial que diferencie nuestra mente actual de la de nuestros primeros antepasados? ¿Pensaban los neandertales como pensamos nosotros? Muchos expertos coinciden en que, en el ser humano, el lenguaje ha sido una condición necesaria para adquirir esa capacidad que nos diferencia de otros animales. Pero ¿es suficiente?

En su libro, Jaynes respondía a estas preguntas: no, desde hace unos pocos miles de años, sí, no y no. El psicólogo pensaba que no bastó con el desarrollo del lenguaje para que en nuestra mente surgiera esa forma superior de consciencia, la que es capaz de reflexionar sobre sí misma, sino que fue necesario un empujón propiciado por ciertos factores ambientales externos para que algo en nuestro interior hiciera «clic» y cambiara radicalmente la manera de funcionar de nuestro cerebro.

Lo que Jaynes proponía era esto: a partir de la aparición del lenguaje, la mente humana era bicameral, una metáfora tomada del sistema político de doble cámara que opera en muchos países, entre ellos el nuestro. Estas dos cámaras se correspondían con los dos hemisferios cerebrales: el derecho hablaba y ordenaba, mientras el izquierdo escuchaba y obedecía. Pero en este caso no hay metáforas: el hemisferio izquierdo literalmente oía voces procedentes de su mitad gemela que le instruían sobre qué debía hacer, en forma de «alucinaciones auditivas». Durante milenios nuestra mente carecía de introspección porque las funciones estaban separadas entre la mitad que dictaba y la que actuaba; el cerebro no podía pensar sobre sí mismo.

Según Jaynes, esto fue así hasta hace algo más de unos 3.000 años. Entonces ocurrió algo: el colapso de la Edad del Bronce. Las antiguas grandes civilizaciones quedaron destruidas por las guerras, y comenzó la Edad Oscura Griega, que reemplazó las ciudades del período anterior por pequeñas comunidades dispersas. El ser humano se enfrentaba entonces a un nuevo entorno más hostil y desafiante, y fue esto lo que provocó ese clic: el cerebro necesitó volverse más flexible y creativo para encontrar soluciones a los nuevos problemas, y fue entonces cuando las dos cámaras de la mente se fusionaron en una, apareciendo así esa metaconsciencia y la capacidad introspectiva.

Así contada, la teoría podría parecer el producto de una noche de insomnio, por no decir algo peor. Pero por ello el psicólogo dedicó un libro a explicarse y sustentar su propuesta en una exhaustiva documentación histórica y en el conocimiento neuropsicológico de su época. Y entonces es cuando parece que las piezas comienzan a caer y encajar como en el Tetris.

Jaynes mostraba que los escritos anteriores al momento de esa supuesta evolución mental carecían de todo signo de introspección, y que en los casos en que no era así, como en el Poema de Gilgamesh, esos fragmentos había sido probablemente añadidos después. Las musas hablaban a los antiguos poetas. En el Antiguo Testamento bíblico y otras obras antiguas era frecuente que los personajes actuaran motivados por una voz de Dios o de sus antepasados que les hablaba, algo que luego comenzó a desaparecer, siendo sustituido por la oración, los oráculos y los adivinos; según Jaynes, aquellos que todavía conservaban la mente bicameral y a quienes se recurría para conocer los designios de los dioses. Los niños, que quizá desarrollaban su mente pasando por el estado bicameral, han sido frecuentes instrumentos de esa especie de voluntad divina. Y curiosamente, muchas apariciones milagrosas tienen a niños como protagonistas. La esquizofrenia y otros trastornos en los que el individuo oye voces serían para Jaynes vestigios evolutivos de la mente bicameral. Incluso la necesidad humana de la autoridad externa para tomar decisiones sería, según Jaynes, un resto del pasado en el que recibíamos órdenes del interior de nuestra propia cabeza.

Jaynes ejemplificaba el paso de un estado mental a otro a través de dos obras atribuidas al mismo autor, Homero: en La Ilíada no hay signos de esa metaconsciencia, que sí aparecen en La Odisea, de elaboración posterior. Hoy muchos expertos no creen que Homero fuese un autor real, sino más bien una especie de marca para englobar una tradición narrativa.

Por otra parte, Jaynes aportó también ciertos argumentos neurocientíficos en defensa de la mente bicameral. Dos áreas de la corteza cerebral izquierda, llamadas de Wernicke y de Broca, están implicadas en la producción y la comprensión del lenguaje, mientras que sus homólogas en el hemisferio derecho tienen funciones menos definidas. El psicólogo señalaba que en ciertos estudios las alucinaciones auditivas se correspondían con un aumento de actividad en esas regiones derechas, que según su teoría serían las encargadas de dictar instrucciones al cerebro izquierdo.

Las pruebas presentadas por Jaynes resultan tan asombrosas que su libro fue recibido con una mezcla de incredulidad y aplauso. Quizá las reacciones a su audaz teoría se resumen mejor en esta cita del biólogo evolutivo Richard Dawkins en su obra de 2006 El espejismo de Dios: «es uno de esos libros que o bien es una completa basura o bien el trabajo de un genio consumado, ¡nada a medio camino! Probablemente sea lo primero, pero no apostaría muy fuerte».

El libro de Jaynes y algunas obras influidas por él. Imagen de Steve Rainwater / Flickr / CC.

El libro de Jaynes y algunas obras influidas por él. Imagen de Steve Rainwater / Flickr / CC.

La teoría de la mente bicameral hoy no goza de aceptación general por parte de los expertos, pero cuenta con ardientes apoyos y con una sociedad dedicada a su memoria y sus estudios. Los críticos han señalado incoherencias y agujeros en el edificio argumental de Jaynes, que a su vez han sido contestados por sus defensores; el propio autor falleció en 1997. Desde el punto de vista biológico y aunque la selección natural favorecería variaciones en la estructura mental que ofrezcan una ventaja frente a un entorno nuevo y distinto, tal vez lo más difícil de creer sea que la mente humana pudiera experimentar ese cambio súbito de forma repentina y al mismo tiempo en todas las poblaciones, muchas de ellas totalmente aisladas entre sí; algunos grupos étnicos no han tenido contacto con otras culturas hasta el siglo XX.

En el fondo y según lo que contaba ayer, la teoría de la mente bicameral no deja de ser pseudociencia; es imposible probar que Jaynes tenía razón, pero sobre todo es imposible demostrar que no la tenía. Pero como también expliqué y al igual que no toda la no-ciencia llega a la categoría de pseudociencia, por mucho que se grite, tampoco todas las pseudociencias son iguales: la homeopatía está ampliamente desacreditada y no suscita el menor debate en la comunidad científica, mientras que por ejemplo el test de Rorschach aún es motivo de intensa discusión, e incluso quienes lo desautorizan también reconocen que tiene cierta utilidad en el diagnóstico de la esquizofrenia y los trastornos del pensamiento.

La obra de Jaynes ha dejado huella en la ficción. El autor de ciencia ficción Philip K. Dick, que padecía sus propios problemas de voces, le escribió al psicólogo una carta entusiasta: «su soberbio libro me ha hecho posible discutir abiertamente mis experiencias del 3 de 1974 sin ser llamado simplemente esquizofrénico». David Bowie incluyó el libro de Jaynes entre sus lecturas imprescindibles y reconoció su influencia mientras trabajaba con Brian Eno en el álbum Low, que marcó un cambio de rumbo en su estilo hacia sonidos más experimentales.

Pero ¿qué tiene que ver la teoría bicameral con Westworld, con nuestro futuro, con Elon Musk y el fin del mundo? Mañana seguimos.

 

¿Y si los alienígenas nos enviaran un virus por correo electrónico?

A estas alturas todo usuario del correo electrónico debería saber que los mensajes sospechosos se tiran sin abrirlos, e incluso sin previsualizarlos, y que jamás de los jamases debe cometerse la insensatez de pinchar en un enlace contenido en un mensaje de cuya legitimidad tengamos la más mínima duda. Imagino que a la mayoría el simple uso nos ha entrenado para saber reconocer los mensajes sospechosos, incluso cuando llegan disfrazados bajo la dirección de correo de nuestro mejor amigo.

Pero ¿y si un día recibiéramos el primer correo electrónico desde fuera de nuestro Sistema Solar? ¿Deberíamos abrirlo?

Imagen de William Warby / Flickr / CC.

Imagen de William Warby / Flickr / CC.

Esto es lo que opinan al respecto el astrónomo amateur Michael Hippke y el astrofísico John Learned, autores de un nuevo estudio disponible en la web arXiv.org y aún no publicado formalmente:

Un mensaje complejo del espacio puede requerir el uso de ordenadores para mostrarlo, analizarlo y comprenderlo. Un mensaje semejante no puede descontaminarse con seguridad, y los riesgos técnicos pueden suponer una amenaza existencial. Los mensajes complejos deberían destruirse en el caso de aversión al riesgo.

Hace algo menos de un año les hablaba aquí de la teleexploración. Actualmente los humanos estamos teleexplorando nuestro Sistema Solar, es decir, utilizando sondas robóticas que trabajan a distancia sin nuestra presencia física. Por medio de transmisiones de radio, los responsables de estas misiones reciben información de los robots y les envían comandos para ejecutar determinadas acciones, pero los aparatos también tienen una capacidad limitada de actuar por sí solos de acuerdo a su programación previa; por ejemplo, si detectan una amenaza a su integridad pueden proteger sus sistemas entrando en modo de reposo.

En el futuro, podemos esperar que el desarrollo de la Inteligencia Artificial nos lleve a fabricar sondas que sean capaces de diseñar sus propias programaciones, y que por tanto actúen de forma autónoma: a dónde dirigirse, qué muestras recoger, cómo analizarlas, cómo actuar en función de los resultados… Como conté, algunas misiones actuales ya utilizan plataformas de software con cierta capacidad de tomar decisiones complejas.

En un futuro aún más lejano, tal vez sea posible extender esta telepresencia de las máquinas a la creación de organismos biológicos en el lugar a explorar. Es decir, que los robots sean capaces de imprimir seres vivos. En los laboratorios ya se utilizan impresoras 3D que emplean células en lugar de plástico para crear tejidos y simulaciones de órganos. En otros casos, se imprime en 3D una especie de base biodegradable que sirve como esqueleto para que las células crezcan sobre él y fabriquen un tejido con la forma deseada. Un ejemplo es un estudio publicado el mes pasado, en el que científicos chinos han fabricado orejas para cinco niños con las propias células de cada paciente.

Pero el futuro de la teleimpresión biológica podría ir mucho más allá: como conté aquí, ya existe una máquina capaz de imprimir virus a distancia a partir de sus componentes básicos (los virus más simples solo son cristales de proteínas con un ADN o ARN dentro), y algunos científicos contemplan la idea de crear una especie de bacteria nodriza, a la que una máquina pueda cargarle el ADN de otra especie (por ejemplo, la humana) para recrear ese organismo (por ejemplo, un humano) en el lugar deseado. Y no son guionistas de ciencia ficción, sino investigadores líderes en biología sintética quienes fantasean con la idea de utilizar este sistema para que el ser humano se expanda por el cosmos, enviando naves ocupadas por bacterias que lleven el genoma humano o de otras especies y que puedan crear personas, animales y plantas en rincones alejados del universo. O sea, una versión futurista del Arca de Noé.

Imagen de Pixabay.

Imagen de Pixabay.

Todo lo dicho para la teleexploración podría aplicarse también a la teleinvasión. Si una civilización lo suficientemente avanzada quisiera conquistar nuevos territorios, como nuestro hermoso y fértil planeta, subyugar a distancia sería sin duda la opción recomendada por el comparador de paquetes de invasión interplanetaria. Bastaría con enviar un correo electrónico con un virus inteligente que pudiera ejecutar el programa deseado; por ejemplo, destruir todos los sistemas computacionales de la Tierra y volar por los aires todas las infraestructuras que dependen de ellos, lanzar los misiles nucleares, liberar todos los virus almacenados en los laboratorios y construir máquinas que fabriquen terminators para acabar con los flecos.

Y todo ello sin mancharse las manos o sus extremidades equivalentes; fácil, barato, rápido y limpio. Nueve de cada diez alienígenas hostiles inteligentes elegirían la teleinvasión y la recomendarían a sus amigos. Tiene mucho más sentido que otras opciones como, por ejemplo, enviar una flota de absurdas naves con forma de plato de postre que presuntamente tratan de ocultarse pero que se esconden con la misma facilidad que un elefante detrás de una palmera, ya que algún diseñador torpe las llenó de luces por todas partes. Hippke y Learned lo plantean de forma más seria:

Aunque se ha argumentado que una ETI [inteligencia extraterrestre] sostenible no será probablemente dañina, no podemos excluir esta posibilidad. Después de todo, es más barato para una ETI enviar un mensaje malicioso para erradicar a los humanos en comparación con enviar naves de guerra.

Respecto a si una ETI sería hostil o no, nadie puede saberlo. Nuestra visión fluctúa con el espíritu de los tiempos entre los invasores despiadados y los semidioses benevolentes. Desde hace años, el físico Stephen Hawking ha advertido repetidamente de que enviar mensajes al espacio delatando nuestra presencia puede no ser una buena idea. Incluso alguien que se dedica a escuchar posibles emails de las estrellas como Seth Shostak, el astrónomo jefe del Instituto SETI (Búsqueda de Inteligencia Extraterrestre), suele comparar nuestro posible encuentro con alienígenas a la llegada de los europeos a América, lo que no resultó demasiado grato para los americanos.

Si alguien decidiera teleinvadirnos, su único riesgo sería que tiráramos su correo sin abrirlo. Pero tratándose de una especie como la nuestra, incauta y deseosa de conseguir algún follower galáctico, no sería difícil hacernos caer en la trampa si recibiéramos un correo bajo el encabezado «I love you«. Sobre todo si además llevara algún emoji simpático:

Resultado de imagen de alien emoji

Ante todo este panorama, Hippke y Learned recomiendan varias líneas de acción: encerrar el mensaje en una prisión, una especie de cuarentena informática aislada de la red, aunque esto podría resultar imposible si los destinatarios fueran múltiples y en todo caso el virus podría encontrar la manera de escapar, incluso convenciendo a sus captores; descontaminarlo, aunque sería complicado garantizar una descontaminación completa, sobre todo si el mensaje no se conoce en profundidad; o simplemente imprimirlo para analizarlo, porque es difícil que el papel haga ningún daño.

Claro que en su estudio Hippke y Learned pasan por alto un salto conceptual algo aventurado, y es dar por hecho que los alienígenas serían tan expertos en nuestros sistemas de computación como para poder explotarlos en su propio beneficio. Pero en cualquier caso, concluyen que finalmente solo nos quedarían dos opciones: «podemos escoger entre destruir el mensaje o asumir el riesgo», aunque advierten de que «los posibles beneficios de unirnos a una red galáctica podrían ser considerables».

Por si acaso, y si reciben un mensaje de alguien que solicita su ayuda para sacar cien mil millones de créditos galácticos de una cuenta corriente en un banco de Alfa Centauri y a cambio les promete el 10%, mejor no lo abran: reenvíenlo al Instituto SETI, que ellos ya sabrán qué hacer. Y si no es así, al menos no habrán sido ustedes los responsables del exterminio de la humanidad.

Una bola de discoteca orbita sobre nuestras cabezas

El riesgo de la grandilocuencia siempre es caer en la pedantería. Pero cuando además nadie comparte tu visión de grandeza, corres el riesgo añadido de caer en el más sonrojante de los ridículos. Cuando el neozelandés Peter Beck decidió poner una estrella artificial en el cielo, lo hizo bajo el discurso de que «durante milenios, los humanos se han concentrado en sus problemas y vidas terrestres. Raramente nos paramos como especie, miramos a las estrellas y tomamos conciencia de nuestra posición en el universo como una mota de polvo dolorosamente minúscula en la grandeza del todo». Pero poco podía imaginar Beck que su grandioso proyecto recibiría calificativos tan afectuosos como «basura», «vandalismo astronómico», «graffiti» o «spam espacial».

Beck es el fundador de Rocket Lab, una compañía aeroespacial que ha desarrollado un cohete ligero para lanzar satélites de pequeño tamaño al espacio. Pero quién sabe cómo, a Beck se le ocurrió emplear su lanzadera para otro fin: poner en órbita una esfera geodésica de un metro de diámetro fabricada en fibra de carbono y con 76 paneles de espejo. Es decir, algo parecido a una bola de discoteca.

El creador de la idea bautizó su bola como Humanity Star, la Estrella de la Humanidad, y la lanzó al espacio el pasado 21 de enero. Según Beck, la bola gira rápidamente reflejando el sol y creando «un flash de luz que puede verse contra un fondo de estrellas». Completa una vuelta a la Tierra cada 90 minutos y será visible desde cualquier lugar del mundo (lógicamente, no al mismo tiempo) como «símbolo brillante y recordatorio para todos aquellos en la Tierra de nuestro frágil lugar en el universo».

Humanity Star. Imagen de Rocket Lab.

Humanity Star. Imagen de Rocket Lab.

Pero a Beck debió de calentársele alguna neurona, y decidió proseguir: «La humanidad es finita y no estaremos aquí para siempre. Y aún a pesar de esta casi inconcebible insignificancia, la humanidad es capaz de grandes y amables cosas cuando nos reconocemos como una especie, responsable de cuidar juntos unos de otros y de nuestro planeta…». No importa en qué lugar del mundo estés, rico o pobre, en conflicto o en paz…». «Espera a que la Estrella de la Humanidad esté sobre ti, lleva al exterior a tus seres queridos para mirar arriba y reflexionar…».

Aquí es donde, si este blog tuviera efectos sonoros, la aguja del tocadiscos saltaría chillando ese clásico «riiiiip». Porque como era de esperar, los astrónomos no solamente no han elevado sus mecheros encendidos, sino que casi han hecho un remake de aquella escena de la lapidación de La vida de Brian. Estos son algunos de sus comentarios en Twitter:

¿Así que estás bloqueando nuestra visión de las estrellas reales y creando contaminación lumínica atmosférica para recordarnos que miremos a las estrellas que no podemos ver en parte gracias a tu estúpido satélite? Buen trabajo.

Wow. Graffiti espacial intencionadamente brillante y a largo plazo. Muchas gracias, Rocket Lab.

Así que el primer acto de Nueva Zelanda como potencia espacial es contaminar el cielo nocturno. Para toda la humanidad. Esta es buena.

Lo único bueno de la Estrella de la Humanidad (también conocida como proyecto neozelandés de polución del cielo nocturno) es que se quemará en nueve meses.

Quizá estén pensando que la operación de Elon Musk y su deportivo espacial es igualmente ridícula. Puede ser, pero a diferencia de Beck, tal vez a Musk le ha salvado el no tratar de revestir su proyecto de grandilocuencia. Al contrario, cultiva una cierta imagen gamberra, como cuando justificó la elección de la carga de su cohete diciendo que cualquier otra opción habría sido «aburrida». En el fondo, lo cierto es que Musk no tenía ninguna garantía de que el cohete despegara sin volar en mil pedazos, y aprovechar el primer lanzamiento del Falcon Heavy para transportar una misión científica habría sido demasiado arriesgado.

Conviene aclarar que no todos los comentarios sobre la Humanity Star han sido negativos; buena parte del público en general ha acogido la iniciativa con agrado, pero es evidente que Beck no se ha ganado el aplauso de los astrónomos, lo cual por otra parte él ya debía de tener previsto. En el fondo, y con un presupuesto infinitamente menor que el de Musk, Beck ha conseguido algo de publicidad extra para su compañía.

Por cierto y por si les interesa verla, ya que está ahí arriba, el localizador de la web del proyecto me informa hoy de que en mi posición (cerca de Madrid) «la Humanity Star tiene la mejor oportunidad de visibilidad dentro de 17 días. Durará unos 4 minutos. Un horario más preciso estará disponible 3 días antes del paso previsto». Así que volveremos a consultarlo dentro de un par de semanas. Y si les apetece, vayan preparando el disfraz de Tony Manero.

Qué es y qué no es el lanzamiento del cohete Falcon Heavy de SpaceX

El episodio del primer lanzamiento del cohete Falcon Heavy de SpaceX ha sido lo más cool que ha ocurrido en el espacio en mucho tiempo. Si es que alguna vez ha habido algo más cool que la versión en carne y hueso de Tony Stark (Iron Man) llevando al espacio un superdeportivo rojo descapotable conducido por un astronauta maniquí al ritmo del Space Oddity de Bowie. Mi detalle favorito es que Starman, el piloto, lleve el brazo apoyado en la ventanilla.

Lanzamiento del cohete Falcon Heavy de SpaceX el 6 de febrero de 2018 desde el Centro Espacial Kennedy. Imagen de SpaceX.

Lanzamiento del cohete Falcon Heavy de SpaceX el 6 de febrero de 2018 desde el Centro Espacial Kennedy. Imagen de SpaceX.

Creo inobjetable que la operación diseñada y ejecutada con éxito por Elon Musk es la mayor, más grandiosa, insuperable, estrambótica y cara maniobra publicitaria de la historia. Lo cual no implica que sea solo una maniobra publicitaria. Pero otra cuestión es que la misión en sí esté realmente a la altura de todo lo que la maniobra publicitaria ha inspirado.

Es posible que el gran éxito del espectáculo haya llevado a sobrevalorar el alcance real de lo conseguido ayer: ni es el cohete más grande de la historia, ni el primero privado que se lanza al espacio, ni el primero cuyos propulsores se recuperan para reutilizarse, ni nos llevará a Marte en el futuro. Sí es el primero que lleva un coche al espacio con un maniquí como conductor. Más detalles en esta serie de preguntas y respuestas:

¿Es el Falcon Heavy el cohete más grande de la historia?

El Falcon Heavy es el cohete más grande actualmente en servicio, pero no el mayor de la historia; este puesto continúa ocupándolo el Saturno V de la NASA, que llevó las misiones Apolo a la Luna. El Saturno V era 40 metros más alto, pesaba el doble y su capacidad de carga multiplicaba la del Falcon Heavy.

¿Qué tiene de especial el Falcon Heavy?

El cohete de Musk es, evidentemente, mucho más barato que el Saturno V, ya que sus propulsores son reutilizables. Su puesta en marcha con éxito parece garantizar que en el futuro será una de las opciones disponibles para enviar grandes cargas al espacio.

¿Es el primer cohete con propulsores reutilizables?

Una de las claves de la apuesta tecnológica de Musk es la recuperación de los propulsores de los cohetes para volver a utilizarlos en nuevas misiones, lo que abarata los costes. El Falcon Heavy sigue la estela de su hermano más pequeño el Falcon 9, que ya ha despegado en varias ocasiones con la recuperación de su fase propulsora. El Falcon Heavy lleva dos propulsores laterales y uno central. Los dos primeros han podido recuperarse, mientras que el tercero se ha perdido en el océano.

Aterrizaje de los propulsores laterales del cohete Falcon Heavy de SpaceX el 6 de febrero de 2018 en el Centro Espacial Kennedy. Imagen de SpaceX.

Aterrizaje de los propulsores laterales del cohete Falcon Heavy de SpaceX el 6 de febrero de 2018 en el Centro Espacial Kennedy. Imagen de SpaceX.

¿Por qué no se han fabricado antes cohetes reciclables?

En los tiempos de la carrera espacial entre EEUU y la URSS, es poco probable que alguien llegara a plantearse el diseño de cohetes reciclables, porque no tenía sentido. En EEUU, el gobierno federal pagaba los cohetes y los contratistas privados los construían. Parece lógico que a estas empresas les interesara seguir fabricando y vendiendo cohetes nuevos para cada misión. Por otra parte, la carrera espacial era una guerra, y en una guerra nadie se detiene a recoger los casquillos. Interesaba la eficacia, no la eficiencia. Hoy las empresas privadas no se limitan a fabricar componentes para las agencias espaciales públicas, sino que actúan también como operadores, por lo que su negocio depende de su capacidad de reducir los costes.

¿Es el primer cohete privado que se lanza al espacio?

No, no lo es. Desde 2012 SpaceX ha utilizado el antecesor del Falcon Heavy, el Falcon 9, para enviar misiones no tripuladas de suministro de carga a la Estación Espacial Internacional.

¿Nos llevará el Falcon Heavy a Marte?

Musk ha desechado ya la idea de utilizar el Falcon Heavy para su plan de establecer una colonia en Marte en la próxima década. En su lugar creará un cohete aún mayor llamado informalmente Big Fucking Rocket (BFR) y que por el momento solo es un dibujo animado. Será tarea de los expertos en ingeniería aeroespacial determinar cuánto de lo ya desarrollado para los Falcon podrá aplicarse al BFR, pero en cualquier caso, todo nuevo vehículo espacial es un proyecto diferente que deberá emprender su propia carrera de fracasos y éxitos.

¿Ha marcado el éxito del Falcon Heavy un hito histórico en la exploración espacial?

Así lo han presentado muchos medios, y desde luego que es cuestión de opiniones, pero tal vez esta afirmación sea como mínimo una exageración muy generosa. Sería acertado decir que el Falcon Heavy reabre una etapa en el transporte espacial estadounidense que se entrecerró con el fin de los grandes cohetes de la NASA, y que se cerró del todo cuando se jubiló la flota de transbordadores espaciales. Las misiones de carga han dependido en los últimos años sobre todo de los cohetes Soyuz rusos y los Ariane europeos, sin contar los de desarrollo propio que utilizan otras potencias espaciales. En cuanto a las misiones científicas, actualmente existe una gran variedad de vehículos lanzadores que se emplean regularmente, ya que en general las sondas científicas no requieren cohetes de carga muy pesada.

Inteligencia Artificial sin supervisión humana: ¿qué puede salir mal?

El físico Stephen Hawking lleva unos años transmutado en profeta del apocalipsis, urgiéndonos a colonizar otros planetas para evitar nuestra pronta extinción, advirtiéndonos sobre los riesgos de contactar con especies alienígenas más avanzadas que nosotros, o alertándonos de que la Inteligencia Artificial (IA) puede aniquilarnos si su control se nos va de las manos.

En su última aparición pública, en una entrevista para la revista Wired, Hawking dice: «Temo que la IA reemplace por completo a los humanos. Si la gente diseña virus informáticos, alguien diseñará IA que mejore y se replique a sí misma. Esta será una nueva forma de vida que superará a los humanos». Los temores de Hawking son compartidos por personajes como Elon Musk (SpaceX, Tesla), pero no por otros como Bill Gates (Microsoft) o Mark Zuckerberg (Facebook).

Stephen Hawking en la Universidad de Cambridge. Imagen de Lwp Kommunikáció / Flickr / CC.

Stephen Hawking en la Universidad de Cambridge. Imagen de Lwp Kommunikáció / Flickr / CC.

La referencia de Hawking a los virus informáticos es oportuna. Como he contado recientemente en otro medio, los primeros virus creados en los años 70 y a principios de los 80 en los laboratorios de investigación no eran agresivos, sino que eran herramientas experimentales destinadas a medir el tamaño de la red o a probar su capacidad de diseminación. O se trataba de simples bromas sin malicia. El primer virus nocivo, llamado Brain y creado por dos hermanos paquistaníes en 1986, era tan inocente que sus autores incluían su información de contacto para distribuir la cura. Brain era un virus justiciero, que tenía por objeto castigar a quienes piratearan el software desarrollado por los dos hermanos.

Pero cuando la computación viral escapó del laboratorio y llegó a los garajes, pronto comenzaron a aparecer los virus realmente tóxicos, algunos creados con ánimo de lucro, otros simplemente con ánimo de hacer daño por hacer daño. Una vez que los sistemas de IA se popularicen y se pongan al alcance de cualquier persona con más conocimientos informáticos que conciencia moral, es evidente que habrá quienes quieran utilizarlos con fines maliciosos.

Y cuando esto ocurra, puede ser difícil evitar desastres, dado que uno de los objetivos actuales de los investigadores es precisamente desarrollar sistemas de IA que puedan funcionar sin intervención humana.

Un ejemplo lo conté ayer a propósito de la aproximación de la realidad virtual a la real, y es importante insistir en cuál es la diferencia entre los rostros creados por NVIDIA que mostré ayer y las casi perfectas recreaciones digitales que hoy vemos en el cine de animación y los videojuegos. Como ejemplo, el Blog del Becario de esta casa contaba la historia de una pareja de artistas digitales japoneses que producen caracteres humanos hiperrealistas como Saya, una chica virtual. Pero los personajes que producen Teruyuki y Yuka Ishikawa, aunque lógicamente generados por ordenador, llevan detrás un largo trabajo de artesanía digital: según los Ishikawa, todas sus texturas son pintadas a mano, no clonadas de fotografías.

Por el contrario, en la creación de las celebrities virtuales de NVIDIA que traje ayer aquí no ha intervenido la mano de ningún artista: han sido generadas enteramente por las dos redes neuronales que componen la GAN, en un proceso sin supervisión humana.

La eliminación del factor humano ha sido la clave también en el desarrollo de AlphaGo Zero, la nueva máquina de DeepMind (Google) para jugar al juego tradicional chino Go. La generación anterior aprendía analizando miles de partidas de los mejores jugadores del mundo. Gracias a este aprendizaje, la anterior versión de AlphaGo consiguió vencer al campeón mundial, el chino Ke Jie. Ke describió la máquina de DeepMind como el «dios del Go».

Juego del Go. Imagen de PublicDomainPictures.net.

Juego del Go. Imagen de PublicDomainPictures.net.

Pero para crear AlphaGo Zero, los investigadores de DeepMind han decidido prescindir de la enseñanza humana: simplemente le han suministrado las reglas básicas del juego, y han dejado que sea la propia máquina la que se enseñe a sí misma. Los resultados son escalofriantes: en solo tres días de aprendizaje, Zero ganó cien partidas de cien a AlphaGo Lee, una versión más antigua. En 21 días alcanzó el nivel de AlphaGo Master, la versión que venció a Ke. En 40 días, Zero se convirtió indiscutiblemente en el mejor jugador de Go del mundo y de la historia, acumulando un conocimiento superior a miles de años de práctica.

Los creadores de la red neuronal de Zero escribieron en la revista Nature que su capacidad es «sobrehumana». El científico computacional Nick Hynes, que no participó en el trabajo, dijo a Gizmodo que Zero es «como una civilización alienígena inventando sus propias matemáticas».

La lección aprendida del caso de Zero es que, al menos en ciertos campos, la IA progresa mucho más deprisa y con mayor eficacia cuando prescinde de la enseñanza de esos torpes seres orgánicos llamados humanos. Basándose en este principio, la nueva tecnología desarrollada por Google y llamada AutoML consiste en dejar que las redes neuronales las diseñen las propias redes neuronales; es decir, crear IA que a su vez crea mejores versiones de IA. Máquinas que diseñan máquinas. Como Skynet, pero sin robots.

¿Qué puede salir mal? Es cierto que numerosos expertos en computación y en IA califican a Hawking de alarmista, y sus opiniones de perniciosas para la imagen pública de la IA, y aclaran que los sistemas con capacidad de traernos el apocalipsis de la saga Terminator aún son solo cosas de la ciencia ficción. Al fin y al cabo, concluyen estos expertos, Hawking no es un especialista en IA.

Pero dejando aparte que una de las mentes más brillantes del mundo merece crédito y atención cuando opina sobre cualquier cosa que le dé la gana –faltaría más, si hasta se les pregunta a los futbolistas sobre política–, y que en realidad la especialidad de Hawking, y lo que ha hecho maravillosamente bien, es precisamente hacer predicciones teóricas a través de largas y complicadas cadenas de razonamientos lógicos con variables a veces desconocidas… Incluso dejando aparte todo esto, ¿quién es el que despacha los títulos de especialista en predecir el futuro?

Pronto no podremos distinguir la realidad virtual de la real

Observen estas fotos de caras. ¿Notan algo raro en ellas?

Imagen de NVIDIA.

Imagen de NVIDIA.

Parecen rostros de gente guapa, celebrities en la alfombra roja o en un photocall de alguna gala. Pero no lograrán reconocer a ni uno solo de ellos. Porque estas personas jamás han existido: son caras virtuales generadas por un sistema de Inteligencia Artificial (IA) desarrollado por NVIDIA, la compañía que tal vez haya fabricado la tarjeta gráfica del ordenador en el que estén leyendo este artículo.

Imagino que son perfectamente conscientes de cómo han evolucionado los gráficos por ordenador en unas pocas décadas. Pero no puedo resistir la tentación de ilustrarlo con este ejemplo. Así era Indiana Jones hace 35 años en el videojuego de la consola Atari Raiders of the Lost Ark, con el cual este que suscribe disfrutaba jugando en su infancia, y mucho:

Indiana Jones en el videojuego Raiders of the Lost Ark de Atari (1982). Imagen de Atari.

Indiana Jones en el videojuego Raiders of the Lost Ark de Atari (1982). Imagen de Atari.

Los autores del trabajo han empleado un tipo de algoritmo de IA creado en 2014 llamado Red Generativa Antagónica (GAN por las siglas de su nombre en inglés, Generative Adversarial Network), que emplea dos redes neuronales trabajando en equipo: una genera las caras, mientras que la otra las evalúa.

Las evaluaciones de la red discriminadora ayudan a la red generadora a ir aprendiendo a crear caras cada vez más realistas, mientras que el perfeccionamiento del trabajo de la red generadora ayuda a la red discriminadora a mejorar su capacidad de identificar los errores. Así, la GAN aprende de forma no supervisada, a partir de sus propias observaciones. En este caso, los investigadores de NVIDIA le suministraron a la GAN una base de datos de fotos de celebrities, y el sistema aprendió a crear las suyas propias.

Sistemas como esta GAN de NVIDIA están comenzando a saltar la barrera del llamado Uncanny Valley o Valle Inquietante, una expresión acuñada para la robótica y que describe el efecto de aquellas creaciones humanoides que se aproximan bastante a la realidad, pero sin llegar a confundirse con ella. En este caso, casi cuesta creer que los rostros creados por la GAN no correspondan a personas reales.

Pero el actual perfeccionamiento en la imitación de lo humano va más allá de unos rostros estáticos. WaveNet, una red neuronal creada por la compañía DeepMind, propiedad de Google, consigue la que según los expertos es hasta ahora la voz sintética más parecida a la humana. Juzguen ustedes (en este vídeo, WaveNet se compara con otros sistemas existentes):

Dicen que en la voz aún se nota un cierto tinte artificial. Tal vez sea cierto, pero personalmente creo que si escucháramos estas voces fuera de un contexto en el que se nos pida juzgar su autenticidad, nunca sospecharíamos que detrás de ellas no hay una laringe y una boca humanas.

También espectacular es el sistema desarrollado por la compañía canadiense Lyrebird. A partir de un solo minuto de grabación de audio, es capaz de recrear digitalmente la voz de cualquier persona. Como ejemplo, Lyrebird presenta la voz recreada de Donald Trump, pero cualquier usuario puede registrarse en su web y recrear digitalmente su propia voz.

En este camino de la virtualidad hacia el perfeccionamiento en la imitación de la realidad, la guinda la pone el sistema creado por un equipo de la Universidad de Washington (EEUU): a partir de un clip de audio con un discurso cualquiera, y otro fragmento de vídeo de alguien hablando, logra que el movimiento de los labios de la persona se sincronice con las frases grabadas. Es decir, construye un vídeo de alguien diciendo algo. Los investigadores utilizaron como ejemplo un discurso de Barack Obama:

El coautor del trabajo Steven Seitz aclaraba que su red neuronal no puede conseguir que una persona aparezca diciendo algo que nunca dijo, ya que debe utilizar como material de partida un clip de audio real con la voz de la persona en cuestión. «Simplemente tomamos palabras reales que alguien dijo y las transformamos en un vídeo realista de ese individuo».

Claro que para eso está el sistema de Lyrebird, que sí puede lograr que cualquiera diga algo que jamás dijo. El sistema de la Universidad de Washington podría entonces transformar ese clip de audio ficticio en un vídeo tan falso como realista.

Todos estos desarrollos nos conducen hacia un escenario en el que pronto la realidad real y la realidad virtual solo estarán separadas por una barrera: una pantalla. Es decir, dado que los robots antropomórficos realistas aún distan mucho tiempo en el futuro, todavía podremos estar seguros de que lo tangible, todo aquello que podemos tocar, es real. Pero con respecto a cualquier cosa que se nos muestre a través de una pantalla, en unos pocos años será difícil distinguir si todo, todo, es real o no. Y en la era de la postverdad, la superación del Valle Inquietante nos lleva hacia un lugar aún más inquietante.

¿Y si en realidad no somos reales, sino personajes de un videojuego?

Cuando Trump ganó las elecciones en EEUU y triunfó el Brexit, hubo muchos que se dijeron: esto no puede estar pasando. Pero entre estos, hay algunos para los que no es simplemente una frase hecha, sino que realmente creen que esto no pude estar pasando. O sea, que no es real. Que es una simulación. Que somos una simulación. O dicho de otro modo, un videojuego carísimo e increíblemente complejo. Y si añadimos todo lo que está ocurriendo últimamente por nuestros pagos, los defensores de esta hipótesis pueden frotarse las manos.

Mario Bros. Imagen de Nintendo.

Mario Bros. Imagen de Nintendo.

En efecto, como en Matrix. Tal vez ya hayan oído hablar de lo que corre en ciertos círculos como la hipótesis de la simulación. O si es la primera vez que leen sobre ello, puede que les parezca el mayor hallazgo intelectual de la historia de la humanidad, o todo lo contrario, una pura masturbación mental a la que no merece la pena dedicar ni medio segundo y que provoca risa con esa flojera del sonrojo. Incluso a lo largo de un mismo día, dependiendo de si pierden el autobús o se les queman las tostadas, puede que piensen ambas cosas indistintamente. A mí me ocurre.

Los antecedentes de esta loca idea son ilustres, desde la caverna de Platón a La vida es sueño de Calderón. Cuatro siglos antes de nuestra era, el filósofo chino Zhuang Zhou se enfrentaba a la imposibilidad de distinguir cuál era la verdadera realidad, si la que entendemos como real o la que experimentamos durante nuestros sueños, que nos parece igualmente real cuando estamos inmersos en ella. Bertrand Russell inventó una idea llamada Tierra de Cinco Minutos, según la cual el universo podría haberse creado hace cinco minutos y nosotros sin enterarnos, creyendo recordar un pasado que podría ser totalmente ficticio. En los años 70, el genial Philip K. Dick también planteó la posibilidad de que vivamos en una realidad programada por ordenador.

Pero el responsable de haberla liado definitivamente es Nick Bostrom, filósofo sueco de la Universidad de Oxford. En 2003 Bostrom publicó un trabajo en el que desarrollaba la hipótesis más o menos según la siguiente línea lógica: el desarrollo tecnológico es imparable y nos lleva a construir simulaciones informatizadas cada vez más complejas. En un futuro con una tecnología infinitamente superior a la actual, los posthumanos llegarán a ser capaces de crear simulaciones a cuyos personajes se les pueda dotar incluso de consciencia.

Estos posthumanos crearán simulaciones del pasado, de sus antepasados, de nosotros. Dado que en el futuro esto será un ejercicio tan corriente y extendido como lo son hoy nuestros videojuegos, se crearán millones de estas simulaciones; al fin y al cabo, ¿cuántas copias de juegos como Los Sims existen en el mundo? Y si existen millones de estas simulaciones y solo una única realidad, la probabilidad de que nosotros seamos reales, que vivamos en la «realidad base», es ínfima: tenemos una posibilidad contra millones de no ser una simulación.

Todo esto, argumentaba Bostrom, siempre que la humanidad no se extinga antes de llegar al estado posthumano, y a no ser que por algún motivo nuestros futuros descendientes decidan no crear simulaciones. Resumiendo, Bostrom afirmaba que al menos una de estas tres proposiciones tiene que ser cierta: a) La humanidad queda aniquilada antes de alcanzar la fase posthumana. b) Los posthumanos no están interesados en construir simulaciones. c) Vivimos en una simulación.

El gusanillo de la simulación ha cautivado a un buen número de científicos y tecnólogos. Elon Musk, multimagnate tecnológico y en quien confiamos para que algún día nos lleve a Marte, está completamente convencido de que, en efecto, vivimos en una simulación. La idea ha llegado a cautivar tan obsesivamente a algunos que, según contaba la revista The New Yorker el año pasado, dos millonarios del Silicon Valley cuyos nombres no se revelaban habrían contratado a un equipo de científicos para tratar de «sacarnos de la simulación».

Pero naturalmente, los filósofos se mueven en un plano diferente al de los científicos. Los científicos trabajan en la realidad, mientras que el deber de un filósofo es calzarse las botas, ponerse el casco y bajar al sótano para inspeccionar los cimientos de esa realidad. Por desgracia, suelen alegar Bostrom y otros, es prácticamente imposible que científicamente lleguemos a conocer la verdad. Demostrar que no vivimos en una simulación es por definición impracticable: cualquier indicio que pudiera aportarse podría formar parte de la simulación. En ciencia a menudo suele ser inviable demostrar un negativo.

Y en cuanto a probar que vivimos en una simulación, y por mucho que algunas de las mejores mentes del mundo se ocupen en tratar de sacarnos de ella… Admitámoslo: si realmente fuéramos una simulación, salir de ella parece algo tan factible como que, de repente, Mario abandone la pantalla y comience a saltar por encima de los champiñones de nuestra pizza.

Aquí les dejo un vídeo que lo explica muy certeramente. En inglés, pero con subtítulos. Que disfruten de su cena simulada.

Biología sintética y los ingenieros de Alien: ¿vuelven los ‘carros de los dioses’?

Aún no he tenido ocasión de ver el nuevo fascículo de la saga Alien. Los que aún tenemos polluelos estamos un poco limitados en nuestras salidas, así que más allá de lo puramente cinematográfico, todavía ignoro qué nuevos hilos aporta Alien: Covenant sobre la trama básica de la serie que comenzó a desvelarse en Prometheus, y que planteaba el argumento de una civilización alienígena autora de nuestra existencia, a la que se daba el nombre de «los ingenieros».

Uno de los ingenieros de 'Prometheus'. Imagen de 20th Century Fox.

Uno de los ingenieros de ‘Prometheus’. Imagen de 20th Century Fox.

La idea de que podríamos ser las criaturas de algo superior es posiblemente tan antigua como el pensamiento humano, algo natural en una especie capaz de intentar comprenderse a sí misma. Para algunos académicos, es un ejemplo de lo que el biólogo evolutivo Stephen Jay Gould llamó exaptación, una característica que surge como subproducto de una adaptación favorable: nuestra capacidad cognitiva nos resulta útil para la supervivencia, pero también nos mete en camisas de once varas a la hora de tratar de explicar la naturaleza, incluido nuestro propio origen.

Así, para algunos expertos, ideas como Dios o los llamados antiguos astronautas tienen orígenes psicológicamente parecidos. Hay quienes en la misma línea añaden otros fenómenos, como las teorías de la conspiración o lo que se conoce entre sus adeptos como el Nuevo Orden Mundial: en todos los casos se supone la existencia de una inteligencia oculta que es responsable de las cosas que ocurren, las cuales ocurren con un propósito diseñado por esa inteligencia oculta.

Es curioso, porque la idea ha ido tomando diversas formas en función del estado del conocimiento humano en cada época y de lo que se denomina el Zeitgeist, el signo de los tiempos, o lo que la gente piensa en cada momento histórico. En tiempos antiguos era lo sobrenatural: los dioses o el Dios; más modernamente la ciencia introdujo el positivismo natural; y en el siglo XX hubo quienes trataron de crear una narrativa continua entre ambas formas de pensamiento: los antiguos astronautas, popularizados en los años 70 por autores como el suizo Erich von Däniken y sus «carros de los dioses», que para este autor y otros eran un fenómeno natural –alienígenas– interpretado por sus presuntos testigos como uno sobrenatural –dioses–.

Hay quienes han situado el origen de las ideas de von Däniken en fuentes muy dispares, desde la mitología de Cthulhu de H. P. Lovecraft y su escalofriante novela En las montañas de la locura (por cierto, mitos que el escritor inventó como simple ficción), hasta las especulaciones del mismísimo Carl Sagan sobre antiguos contactos alienígenas. También se acusó al autor suizo de haber plagiado las ideas de otros.

Pero naturalmente, la hipótesis de von Däniken es pseudociencia, no corroborable ni refutable por métodos científicos, y que por tanto puede perpetuarse en la mente de quienes creen en ello sin tener que rendirse jamás a ninguna evidencia contraria. Lo cual, entre otras cosas y unido a lo provocador de la idea, mantuvo un rentable nicho de mercado para su autor, con independencia de que él realmente creyera en ello. Otros también han encontrado su filón en argumentos similares, como el español J. J. Benítez.

Paralelamente, dentro del ámbito de la ciencia hay también una larga tradición en la propuesta de que la vida pudo llegar a la Tierra desde el espacio; se conoce como panspermia. De hecho, suele atribuirse al filósofo griego Anaxágoras la primera mención de este término, al que en el siglo XIX se le dio una definición más científica como la siembra de vida a través del universo mediante microbios presentes en cuerpos viajeros; por ejemplo, asteroides y cometas.

La panspermia ha tenido sus defensores más significados en dos astrónomos, el británico Fred Hoyle y su alumno, el ceilanés Chandra Wickramasinghe. El primero, ya fallecido, aportó valiosos hallazgos sobre los procesos físico-químicos en las estrellas, además de acuñar el término Big Bang, aunque fuera con una intención irónica hacia una teoría en la que no creía. Pero tanto Hoyle como Wickramasinghe se han distinguido por sus propuestas estrambóticas y contrarias al conocimiento científico, como el rechazo a la evolución biológica o la afirmación de que la llamada gripe española de 1918 y otras graves pandemias llegaron a la Tierra desde el espacio. Hoyle llegó a decir que la posibilidad de que surja una célula a partir de sus componentes básicos es como si un tornado barre una chatarrería y ensambla un Boeing 747.

Entre la comunidad científica, la panspermia como la definieron Hoyle y Wickramasinghe provoca ceños fruncidos, cuando no reacciones más airadas. Lo cierto es que no existe ningún indicio para pensar que un microbio pueda sobrevivir a un largo viaje espacial en una roca, ni siquiera en estados de latencia como las esporas. Por el contrario, en los últimos años se han encontrado pruebas de que ciertas moléculas orgánicas propias de la vida sí pueden hacer tales viajes, una versión más débil de la panspermia que sí cuenta con el apoyo de algunos científicos. Y que no solo es diferente, sino casi opuesta a lo defendido por Hoyle y Wickramasinghe, ya que para estos no puede surgir la vida a partir de componentes simples.

Hay una tercera modalidad de panspermia aún más arriesgada, que es la dirigida: la idea de que la vida en la Tierra ha sido deliberadamente sembrada. Así volvemos a los antiguos astronautas de von Däniken o los ingenieros de Prometheus. Lo curioso es que esta idea también pseudocientífica ha obtenido casi más interés por parte de algunos científicos que la panspermia de Hoyle y Wickramasinghe. Uno de sus proponentes más notables fue Francis Crick, el codescubridor de la doble hélice de ADN; aunque en su descargo debe aclararse que Crick publicó su hipótesis en 1973, antes de saberse que el ARN es capaz de replicarse por sí mismo sin la intervención de otras moléculas.

Ya he mencionado arriba que Sagan, sin proponérselo, inspiró a autores como von Däniken al especular sobre posibles antiguas visitas alienígenas a la Tierra. El astrofísico y divulgador fue devastadoramente crítico con las ideas del suizo, y sobre la hipótesis de Crick escribió: “aunque no sabemos de nada que rigurosamente excluya la idea de la panspermia dirigida, de igual modo no hay nada que la apoye fuertemente”. A pesar de lo que circula por internet, no hay ninguna prueba de que Sagan creyera en teorías de antiguos astronautas, y en cambio sí hay pruebas de lo contrario.

Lo más llamativo de todo esto es que, según conté ayer, hoy podemos encontrar científicos reputados como Adam Steltzner, ingeniero jefe del rover marciano Curiosity, reflexionando públicamente y sin rubor sobre ideas que no son otra cosa que panspermia dirigida, antiguos astronautas e ingenieros. Por supuesto que Steltzner no estaba sentando cátedra cuando lo dijo, pero tampoco era una charla de café, sino una conferencia anual en Washington dedicada a explorar las fronteras de la ciencia. Y Steltzner es un ejemplo, pero no el único. Los biólogos sintéticos trabajan bajo la premisa de que esta tecnología puede avanzar espectacularmente en la recreación de múltiples procesos naturales de la vida. Y como también conté ayer, algunos no son contrarios a la idea de que estos avances, tal vez conseguidos ya por civilizaciones más avanzadas, puedan propagarse a través del universo. Dos y dos son cuatro.

Cuando Elon Musk, el magnate de SpaceX que quiere llevarnos a Marte, afirma que muy probablemente seamos el resultado de una simulación informatizada de nuestros futuros descendientes, en el fondo no es más que una nueva versión digital de la panspermia dirigida. Una diferencia esencial entre gente como von Däniken y gente como Musk es que los segundos se ganan el respeto con sus progresos reales. Y con ello, están extendiendo ideas audaces que están calando entre la comunidad científica, aunque solo sea como ciencia-espectáculo.

No creo que a Ridley Scott, artífice de la saga Alien, le haya pasado por alto el hecho de que con sus ingenieros tal vez haya pinchado en una veta de renovada actualidad. Es difícil determinar cuáles son causas y cuáles efectos. Pero en fin, todo esto está bien en la medida en que favorece la reflexión, la discusión y la creación de historias para que pasemos un buen rato en el cine. Siempre que no olvidemos que a día de hoy no tenemos absolutamente ningún indicio de que realmente haya alguien más en el universo.