BLOGS
Ciencias mixtas Ciencias mixtas

Los secretos de las ciencias para
los que también son de letras

Entradas etiquetadas como ‘tecnología’

¿Por qué invadir otro planeta, si se puede ‘teleinvadir’?

Dado que no tengo plan de escribir próximamente ninguna historia de ciencia ficción (mi Tulipanes de Marte era una novela con ciencia ficción, no de ciencia ficción), de vez en cuando dejo caer aquí alguna idea por si a alguien le apetece explorarla.

Tampoco pretendo colgarme ninguna medalla a la originalidad, dado que en general es difícil encontrar algo nuevo bajo el sol, o cualquier otra estrella bajo la cual haya alguien, si es que hay alguien bajo otra estrella. Imagino que ya se habrán escrito historias que no recuerdo o no conozco, y que plantean este enfoque. Pero en general, las ficciones sobre invasiones alienígenas se basan en la presencia física de los invasores en el territorio de los invadidos.

¿Por qué unos alienígenas sumamente avanzados iban a tomarse la molestia, poniendo en riesgo incluso sus propias vidas, de invadir ellos mismos?

Imagen de 'Mars Attacks!' (1996), de Tim Burton. Warner Bros.

Imagen de ‘Mars Attacks!’ (1996), de Tim Burton. Warner Bros.

Futurólogos como Ray Kurzweil pronostican un mañana en que los humanos cargaremos nuestras mentes en máquinas, llámense internet o la nube, y podremos alcanzar la inmortalidad prescindiendo de nuestros cuerpos biológicos. Descontando el hecho de que sería una inmortalidad insoportablemente aburrida, y de que los biólogos nos quedaríamos sin tarea, lo cierto es que hoy son muchos los investigadores en inteligencia artificial que trabajan inspirados por este horizonte. Así que sus razones tendrán.

Imaginemos una civilización que ha alcanzado semejante nivel de desarrollo. ¿No sería lógico que evitaran el riesgo de mancharse las manos (o sus apéndices equivalentes) con una invasión presencial, y que en su lugar teleinvadieran, sirviéndose de máquinas controladas a distancia o capaces de razonar y actuar de forma autónoma?

Una buena razón para ello aparecía ya en la novela que comenzó a popularizar el género en 1897. En La guerra de los mundos de H. G. Wells, los marcianos llegaban a la Tierra a bordo de sus naves, un esquema copiado después una y otra vez. La última versión para el cine, la que dirigió Spielberg en 2005, aportaba una interesante variación: las máquinas de guerra ya estaban presentes en la Tierra desde tiempos antiguos. Pero también en este caso, sus creadores se desplazaban hasta nuestro planeta para pilotarlas.

Como biólogo que era, Wells resolvió la historia con un desenlace científico genial para su época. Aunque el concepto de inmunidad venía circulando desde antiguo, no fue hasta finales del XIX cuando Pasteur y Koch le dieron forma moderna. Wells tiró de esta ciencia entonces innovadora para matar a sus marcianos por una infección de bacterias terrestres, contra las cuales los invasores no estaban inmunizados. La idea era enormemente avanzada en tiempos de Wells, y si hoy parece casi obvia, no olvidemos que prácticamente todas las ficciones actuales sobre alienígenas la pasan por alto (una razón más que hace biológicamente implausibles la mayoría de las películas de ciencia ficción).

Marciano moribundo en 'La guerra de los mundos' (2005). Imagen de Paramount Pictures.

Marciano moribundo en ‘La guerra de los mundos’ (2005). Imagen de Paramount Pictures.

Así, cualquier especie alienígena invasora preferiría evitar riesgos como el de servir de comida a una legión de microbios extraños y agresivos, lo que refuerza la opción de la teleinvasión. Pero hay una limitación para esta idea: la distancia a la que se puede teleinvadir.

Dado que la velocidad máxima de las transmisiones es la de la luz, una teleinvasión en tiempo real obligaría a los alienígenas a acercarse lo más posible a la Tierra. Ya a la distancia de la Luna, una transmisión de ida y vuelta requiere 2,6 segundos, un tiempo de reacción demasiado largo. Probablemente les interesaría mantenerse en una órbita lo suficientemente alejada para evitar una respuesta de la Tierra en forma de misiles.

Y lo mismo que sirve para una invasión alienígena, podría aplicarse a la visita humana a otros mundos. Precisamente esta telepresencia es el motivo de un artículo que hoy publica la revista Science Robotics, y cuyos autores proponen esta estrategia para explorar Marte. Naturalmente, esta ha sido hasta ahora la fórmula utilizada en todas las misiones marcianas. Pero el retraso en las comunicaciones entre la Tierra y su vecino, que oscila entre 5 y 40 minutos según las posiciones de ambos planetas en sus órbitas, impide que los controladores de la misión puedan operar los robots en tiempo real.

Los autores proponen situar un hábitat no en la superficie marciana, sino en la órbita, lo que reduciría los costes de la misión y los riesgos para sus tripulantes. Los astronautas de esta estación espacial marciana podrían controlar al mismo tiempo un gran número de robots en la superficie, que les ofrecerían visión y capacidad de acción inmediatas, casi como si ellos mismos estuvieran pisando Marte. Las posibilidades son casi infinitas, por ejemplo de cara a la ejecución de experimentos biológicos destinados a buscar rastros de vida pasada o presente. Los autores apuntan que ya hay un grupo en el Instituto Keck de Estudios Espaciales dedicado a evaluar la teleexploración de Marte.

Concepto para una exploración de Marte por telepresencia desde un hábitat en órbita. Imagen de NASA.

Concepto para una exploración de Marte por telepresencia desde un hábitat en órbita. Imagen de NASA.

Claro que otra posibilidad, quizá más lejana en el futuro, es que estas máquinas puedan pensar por sí mismas sin necesidad de que nadie las controle a distancia. En el mismo número de Science Robotics se publica otro artículo que evalúa un software inteligente llamado AEGIS, instalado en el rover marciano Curiosity y que le ha permitido seleccionar de forma autónoma las rocas y suelos más interesantes para su estudio, con un 93% de precisión.

Pero esto es solo el principio. En un tercer artículo, dos científicos de la NASA reflexionan sobre cómo las futuras sondas espaciales inteligentes podrán trabajar sin intervención humana para la observación de la Tierra desde el espacio, para la exploración de otros mundos del Sistema Solar e incluso para viajar a otras estrellas. Escriben los investigadores:

El último desafío para los exploradores científicos robóticos sería visitar nuestro sistema solar vecino más próximo, Alfa Centauri (por ejemplo, Breakthrough Starshot). Para recorrer una distancia de más de 4 años luz, un explorador a este sistema probablemente se enfrentaría a una travesía de más de 60 años. A su llegada, la sonda tendría que operar de forma independiente durante años, incluso décadas, explorando múltiples planetas en el sistema. Las innovaciones actuales en Inteligencia Artificial están abriendo el camino para hacer realidad este tipo de autonomía.

Y eso no es todo. Hay un paso más en la telepresencia en otros planetas que aún es decididamente ciencia ficción, pero que hoy lo es un poco menos, dado que ya se ha colocado la primera piedra de lo que puede ser una tecnología futura casi impensable. Si les intriga saber de qué se trata, vuelvan mañana por aquí.

¿Es creíble el New Space? Dos autores de ciencia ficción opinan

El fundador de SpaceX, Elon Musk, pretende llevar el año próximo a una pareja de pasajeros en un vuelo alredor de la Luna, además de fundar una colonia en Marte en la próxima década. Otras empresas del llamado New Space, del que hablé hace unos días, quieren popularizar los vuelos espaciales, extraer recursos minerales extraterrestres o limpiar la órbita terrestre de la basura espacial acumulada. Pero ¿son creíbles todas estas promesas?

Hay quienes ya han hecho realidad objetivos como estos, aunque solo en las páginas de sus libros. Dicen que el papel lo aguanta todo, pero ciertos autores de ciencia ficción asientan sus obras sobre una formación y experiencia científicas que les convierten en augures privilegiados del futuro que nos espera.

Lo cual no implica que mi pregunta sobre el New Space tenga una respuesta inmediata y única. Prueba de ello es esta muestra de dos autores escogidos a los que he preguntado, y que les traigo hoy: David Brin y B. V. Larson. Ambos, escritores de ciencia ficción y científicos de formación. Brin es, además de ganador de premios como el Hugo y el Nebula (autor, entre otras, de Mensajero del Futuro, llevada al cine por Kevin Costner), astrofísico, asesor de la NASA y consultor futurólogo para varias corporaciones y agencias del gobierno de EEUU. Por su parte, Larson es una presencia habitual en la lista de los más vendidos de ciencia ficción de Amazon, pero además es profesor de ciencias de la  computación y antiguo consultor de DARPA, la agencia de investigación avanzada del Departamento de Defensa de EEUU.

Los escritores David Brin (izquierda) y B. V. Larson (derecha). Imágenes de Wikipedia y YouTube.

Los escritores David Brin (izquierda) y B. V. Larson (derecha). Imágenes de Wikipedia y YouTube.

Ambos sostienen opiniones opuestas sobre el futuro del New Space. Brin considera que la evolución de la aventura espacial desde los gobiernos a los operadores privados es algo natural que ya hemos visto antes en nuestra historia. “El príncipe Enrique el Navegante subvencionó la exploración naval portuguesa, y después las iniciativas privadas tomaron el relevo”, me dice. El autor recuerda otros ejemplos, como la aviación, y pronostica que “estamos entrando en una era en la que 50 años de inversión gubernamental en el espacio por fin van a dejar paso a una actividad motivada por el comercio, la ambición e incluso la diversión”.

Y no solo se trata de un proceso históricamente repetido, opina Brin, sino repetido con éxito. El autor destaca la reutilización de naves y cohetes como un hito conseguido por las compañías del New Space que facilitará enormemente el acceso al espacio en el futuro, aunque “nadie ha dicho que vaya a ser fácil”. Brin reconoce que los más entusiastas están prometiendo demasiado, pero afirma que “el progreso es indiscutible”.

En cambio, más pesimista se muestra Larson. Este autor admite que las promesas del New Space están captando eficazmente la atención de los medios y del público; “pero eso no cambiará los resultados”, añade.

¿Y cuáles serán para Larson estos resultados? “Yo diría que todas las ambiciones del New Space probablemente fracasarán”, sugiere. Como Brin, Larson también basa su argumento en la trayectoria histórica, pero en un sentido diferente. Según este autor, los cambios tecnológicos comienzan con una edad dorada de rápida innovación durante unos 50 años, seguida por un estancamiento que solo puede superarse con un gran nuevo descubrimiento o aplicación capaz de impulsar de nuevo el desarrollo tecnológico. “Hay incontables ejemplos”, sostiene Larson: la aviación avanzó de forma espectacular desde los hermanos Wright en 1903 hasta la aviación comercial. Pero “una vez que los aviones se hicieron comunes en los años 50, el progreso frenó; un avión de pasajeros hoy vuela a la misma velocidad y altitud que hace 50 años”.

Larson cita también el ejemplo de los ordenadores. “¿Qué hemos hecho con ellos en la última década? Los hemos hecho un poco más pequeños, un poco más rápidos, más conectados y más portátiles, pero eso es todo, solo refinamientos; el iPhone debutó en 2007, el portátil en los años 90, y funcionan esencialmente hoy igual que entonces”.

Lo mismo ocurre con los viajes espaciales, prosigue Larson. Desde la carrera espacial de los años 60 no han surgido innovaciones radicales; los propulsores de los cohetes y otros elementos son básicamente similares a como eran entonces. “Estamos estancados en un tiempo de espera”, dice, y solo podremos avanzar a la siguiente casilla, la popularización y el abaratamiento de los vuelos al espacio, con un cambio de enfoque o una nueva motivación económica que nos empuje hacia el espacio. Hasta entonces, “el coste superará al beneficio”, asegura el autor. “Este es el motivo por el que estas ideas sobre el New Space de las que oyes hablar siempre parecen desvanecerse”.

Dos expertos, dos posturas distintas. Pero nadie ha dicho que pronosticar el porvenir sea fácil. Por el momento, solo podemos preparar un bol de palomitas, sentarnos en el sofá y mirar cómo el futuro va pasando por nuestra pantalla.

Old Space vs New Space, la carrera espacial del siglo XXI

Recientemente he escrito para otro medio un artículo sobre lo que ahora llaman New Space, que viene a ser algo así como la liberalización del espacio. No es que existiera ningún oligopolio legal, sino que hasta hace unos años solo las grandes agencias públicas tenían los recursos económicos, técnicos y humanos para actuar como operadores espaciales, mientras que las compañías privadas preferían hacer negocio suministrándoles productos y servicios.

Pero entonces llegaron personajes como Elon Musk (PayPal, Tesla Motors, y ahora SpaceX), Jeff Bezos (Amazon, y ahora Blue Origin) o Richard Branson (Virgin, y ahora Virgin Galactic), junto con otros muchos no tan conocidos. Llegaron con una pregunta: ¿por qué no lo hacemos nosotros? Sin el control público, sin la burocracia, sin las jerarquías interminables, sin miedo al riesgo; con dinero, con ideas nuevas, con nuevos modelos y con ganas. El New Space es a la NASA lo que en su día el Silicon Valley fue para los gigantes como IBM. De hecho, muchas compañías del New Space han surgido en el Silicon Valley.

Ilustración de la nave Dragon 2 de SpaceX. Imagen de SpaceX.

Ilustración de la nave Dragon 2 de SpaceX. Imagen de SpaceX.

Hablo de la NASA, aunque el fenómeno del New Space no es algo ni mucho menos restringido a EEUU. Pero sí lo es su parte más visible, la que se refiere a los viajes espaciales tripulados, dado que la NASA ha sido el único operador del mundo occidental que ha lanzado sus propias naves tripuladas, y el único de todo el mundo que ha enviado humanos más allá de la órbita baja terrestre. Lo cierto es que el New Space no trata solo de mandar gente al espacio: hay empresas que quieren recoger basura orbital o que fotografían la Tierra desde satélites.

Sin embargo, es indudable que todo esto no habría causado tanto revuelo si no fuera porque varias compañías del New Space, que son por ello las más visibles, sí pretenden que las próximas naves tripuladas no lleven una bandera, sino un logotipo corporativo. Y porque quieren llevarlas además adonde las de la bandera no han vuelto desde 1972 (la Luna) o donde no han ido nunca (Marte).

Más allá del tono aséptico que requería el artículo mencionado al principio, lo cierto es que la entrada del New Space ha hecho saltar chispas en el Old Space, es decir, en la NASA. Oficialmente, la agencia pública de EEUU y las nuevas compañías mantienen relaciones comerciales que esperan sean beneficiosas para ambas partes. Pero ya les conté aquí lo que ocurrió cuando Elon Musk, fundador de SpaceX, anunció que se propone llevar el año próximo a una pareja en la luna de miel más literal de la historia, en vuelo alrededor de la Luna, y que lo hará en la cápsula Dragon 2 costeada por la NASA: cuando la agencia felicitó a SpaceX, lo hizo recordándole sus obligaciones contractuales, como un padre estrechando la mano a su nuevo yerno mientras le advierte que ya puede portarse bien con su hija o…

De hecho, el roce entre Old Space y New Space no parece tan bien engrasado como podría pensarse. Todavía colea un episodio que comenzó en febrero, cuando Charles Miller, un miembro del equipo de transición de la NASA nombrado por el gobierno de Donald Trump, escribió un correo en el que parecía alentar una competición entre ambos modelos dentro de la propia agencia, para ver cuál resultaba ganador en una nueva carrera de regreso a la Luna.

El correo de Miller se filtró al diario The Wall Street Journal, y así comenzó el lío, cuando algunos comenzaron a especular que la NASA podría abandonar el desarrollo de sus nuevos cohetes, en los que ya se ha invertido mucho dinero. Esta posibilidad ha sido después desmentida, pero aún no puede decirse que todo vaya sobre ruedas. Como muestra, de las fuentes de la NASA con las que cuento para algunos de mis artículos, ninguna quiso opinar; no sobre el asunto de Miller, sino sobre el New Space en general. “Soy un empleado de la NASA y no se me permite hablar sobre estos asuntos”, me dijo uno de ellos. Otros directamente evitaron responder.

Con independencia de cómo evolucione esta incómoda relación entre ambos modelos espaciales, queda otra gran pregunta muy difícil de responder: ¿lograrán las compañías del New Space cumplir lo que prometen? ¿O algunas de esas promesas (por ejemplo, la de Musk de fundar una colonia en Marte) serán como los vestidos de alta costura de las pasarelas de moda, simples reclamos vistosos para luego vender jerséis?

Los expertos aún no parecen tener muy claro cuál es la respuesta a esta pregunta. Pero aparte de los analistas y tecnólogos, había otra opinión que me interesaba: la de quienes han cumplido estos objetivos en la imaginación, pero lo han hecho sabiendo de lo que hablaban. Es decir, escritores de ciencia ficción que también son o han sido científicos. He consultado a un par de ellos. Mañana les contaré lo que me han dicho.

Ya tenemos chips a prueba de Venus, pero no tenemos misiones a Venus

Venus fue el primer mundo extraterrestre visitado por un artefacto humano. En 1966, tres años antes del primer viaje a la Luna, la sonda soviética Venera 3 se reventó contra las rocas de Venus, si es que quedaba algo aún intacto al llegar a los 460 ºC y las 90 atmósferas de presión de su superficie.

Imaginen lo que sería encontrarse a cuerpo gentil a 900 metros bajo el mar. ¿Pueden? No, yo tampoco; a un par de metros de profundidad en la piscina ya me viene el recuerdo de que los humanos hemos evolucionado en tierra firme. Tampoco podemos imaginar fácilmente lo que es una temperatura ambiente de 460 grados, casi el doble que el máximo en muchos de nuestros hornos; suficiente para fundir el plomo. Por no hablar del ácido sulfúrico atmosférico que nos disolvería como una couldina en un vaso de agua.

Venus es nuestro vecino más próximo y más parecido en algunos aspectos a nuestro planeta, por ejemplo en masa y tamaño. Pero lo fue aún más: los científicos estiman que tuvo océanos y temperaturas habitables tal vez durante sus primeros 2.000 millones de años, hasta que un efecto invernadero catastrófico fue convirtiéndolo en un infierno. Hoy es el planeta más caliente del Sistema Solar, superando a Mercurio.

Estas condiciones extremas son las que hacen de Venus un planeta difícil de explorar a ras de suelo. Aunque han sido varias las sondas que se han posado en su superficie, el récord de funcionamiento de un aparato en aquel ambiente ardiente y opresivo es de 127 minutos, establecido por la también soviética Venera 13 en 1981.

Fotografía tomada en 1981 por la sonda Venera-13 en la superficie de Venus. Imagen de Wikipedia.

Fotografía tomada en 1981 por la sonda Venera-13 en la superficie de Venus. Imagen de Wikipedia.

Todo esto ha relegado a Venus a un segundo plano en el interés del público con respecto a Marte, más accesible a futuras misiones tripuladas. Y sin embargo, el segundo planeta esconde algunas sorpresas en la manga.

Para empezar, su densa atmósfera permitiría que un globo lleno de nuestro aire respirable flotara en el cielo como un corcho en el agua, y precisamente en una franja de altura en la cual la temperatura es similar a la terrestre. Ya se han enviado globos no tripulados allí, pero la NASA tiene un concepto llamado HAVOC (Concepto Operativo a Gran Altitud en Venus) para misiones tripuladas que incluso sería aplicable a una hipotética colonización de la atmósfera de Venus con ciudades flotantes, como la Ciudad de las Nubes de Lando Calrissian en Star Wars.

Pero por supuesto, es solo una idea que no se llevará a la práctica. De hecho, en su última selección de próximas misiones el pasado enero, la NASA dejó fuera a Venus. Actualmente la única misión planificada específicamente venusiana que parece seguir viva es la rusa Venera-D. Un plan europeo que lleva años circulando parece entre dormido y muerto. La NASA aún tiene en reserva una propuesta que pretende enviar un aparato a la superficie de Venus con el propósito de analizar el suelo, pero para conseguir su aprobación deberá competir con otros proyectos menos complicados.

Otro posible tesoro que podría esconder Venus es el rastro de antigua vida, como conté ayer. Los expertos apuntan que la búsqueda de alguna huella no sería tarea fácil, ya que la mayor parte de la superficie del planeta está formada por rocas recientes de origen volcánico que habrían borrado cualquier posible resto de la época más temprana. Sin embargo, los científicos sostienen que tal vez sería posible encontrar rastros de vida pasada encerrados en algunos minerales especialmente resistentes, como el cuarzo o la tremolita.

Circuito integrado de carburo de silicio, antes (arriba) y después (abajo) de probarse en un simulador de Venus. Imagen de NASA.

Circuito integrado de carburo de silicio, antes (arriba) y después (abajo) de probarse en un simulador de Venus. Imagen de NASA.

Pero si buscar este tipo de indicios ya es complicado en nuestro planeta, hacerlo en la superficie de Venus con una sonda robótica es un “más difícil todavía” que parece casi inalcanzable. Aunque hoy lo parece un poco menos. Un equipo de ingenieros del centro de investigación Glenn de la NASA ha fabricado un microchip capaz de funcionar en la superficie de Venus durante semanas, lo que supone aumentar en dos órdenes de magnitud el tiempo operativo conseguido hasta ahora por las sondas allí enviadas.

El secreto es el material: carburo de silicio, mucho más resistente que el silicio normal empleado como semiconductor en los microprocesadores actuales. Los investigadores probaron los chips en una cámara calentada y presurizada que simula las condiciones de Venus, consiguiendo una resistencia récord de 521 horas, unas tres semanas. Este fue el período que los ingenieros tardaron en cansarse de esperar para analizar los resultados; pero cuando sacaron los chips del simulador venusiano, aún funcionaban. Y esto con los componentes desnudos, sin protegerlos en cápsulas herméticas presurizadas como se hizo en las misiones que anteriormente aterrizaron en Venus.

De modo que ya tenemos las herramientas, pero por desgracia aún no tenemos la misión. Hoy es difícil creer que en algún plazo razonable vayamos a solventar la gran incógnita de si Venus fue alguna vez un planeta habitado. Piénsenlo la próxima vez que contemplen esa brillante chispa en la noche: tal vez allí reposen los restos de nuestros antiguos vecinos, pero tal vez nunca lleguemos a saberlo.

Pasen y vean los primeros ‘drones tripulados’ que pronto despegarán

De acuerdo, hablar de un “dron tripulado” es un oxímoron tan monumental como hablar de un bonsái del tamaño de un árbol, dado que precisamente la palabra “dron” hace referencia a un avión no tripulado. Al parecer el término comenzó a emplearse con este uso en 1946, pero ¿a que no adivinan su origen?

Con este uso, porque la palabra ya existía: aunque pueda parecerlo, no es un acrónimo, sino un vocablo común del inglés que designa a las abejas macho encargadas de fecundar a la reina. Nosotros las llamamos zánganos, y queda claro por qué en lugar de traducir el término original simplemente lo hemos españolizado como “dron”. Es un caso similar al de Lobezno, el de los X-Men: wolverine no es una cría de lobo, sino otra especie diferente, un mustélido de nombre científico Gulo gulo que en español se conoce como… glotón.

El vehículo aéreo personal autónomo Ehang 184. Imagen de YouTube.

El vehículo aéreo personal autónomo Ehang 184. Imagen de YouTube.

Pero a lo que iba. Los drones actuales son los que han popularizado la configuración del quadcóptero, el aparato de cuatro hélices horizontales, y este mismo esquema es el que ha adoptado la empresa rusa HoverSurf para su Scorpion-3, un cacharro que sus propios inventores califican como hoverbike, o bici voladora; otro oxímoron, dado que faltan las dos ruedas. HoverSurf ya acepta encargos, aunque de momento no ofrecen detalles sobre fechas y precios. Véanlo en acción, pero debo prevenirles: no esperen nada espectacular. Eso sí; volar, vuela.

La duda sobre cómo llamar a estos artefactos ilustra el hecho de que aún no tenemos palabras estandarizadas para nombrar los vehículos aéreos personales. Naturalmente, porque aún no tenemos vehículos aéreos personales, que llaman PAV por sus siglas en inglés. Y es improbable que lleguemos a tenerlos, pero no será por falta de apuestas. Como he contado aquí en alguna ocasión anterior, son varias las iniciativas que están llevando a la práctica el más clásico de los gadgets retrofuturistas, y varios de ellos ya funcionan.

Incluso la Unión Europea ha financiado algún proyecto destinado a estudiar el concepto. Pero solo el concepto: ¿imaginan cómo sería tratar de regular un tráfico tridimensional que pudiera superar cualquier obstáculo o barrera? ¿Imaginan a algunos adelantando no solo por izquierda y derecha, sino por arriba y abajo? Sería el paraíso de los conductores agresivos.

El más visionario de los millonarios tecnólogos actuales, Elon Musk, que con su marca Tesla promueve los auto-móviles (es decir, los automóviles que lo son realmente), ya se descolgó hace tiempo de la idea del coche volador. En una reciente entrevista en Bloomberg reiteraba que no le parece una buena idea: “Si alguien no mantiene bien su coche volador, podría caerse un tapacubos y guillotinarte”. En su lugar, Musk se decanta por llevar el tráfico a la tercera dimenión, pero no por arriba, sino por abajo, excavando túneles.

Y pese a todo, parece que los primeros PAV van a despegar este mismo año. El gobierno de Dubái pretende lanzar en julio un servicio de taxis aéreos empleando quadcópteros chinos Ehang 184 (en realidad con ocho hélices dispuestas dos a dos). Según el director general de la Autoridad de Carreteras y Tansportes del emirato, Mattar Al-Tayer, viajar en estos coches voladores será “como montar en ascensor”. Los vehículos no los conducirá su único pasajero, sino que serán autónomos; volarán solos hasta el destino programado con ayuda de un centro de control en tierra.

 

 

Cinco razones para regresar a la fotografía analógica

A comienzos de siglo (cómo suena esto…) trabajé durante unos años en periodismo de viajes, una especialidad tan bonita como mal pagada; un autor de guías de EEUU decía que su salario era un poco menos que el de quien ponía las patatas a freír en el McDonald’s. Pero como todo, esto se debe a una simple cuestión de especialización, oferta y demanda: ¿qué periodista, incluso muchos que no lo son, no ha escrito alguna vez un artículo de viajes? No es que el resultado final sea comparable en todos los casos, pero por desgracia la calidad ha sido víctima de la crisis de los medios.

Un ejemplo: en aquella editora de revistas en la que trabajé se contaba con alguien como Javier Reverte, pero solo en calidad de firma invitada; un artículo corto de libre disposición y escrito desde casa podía despacharse con un pago en forma de billetes de avión (no comprados, sino conseguidos mediante intercambio comercial a cambio de publicidad). En cambio, satisfacerle unos honorarios justos por un verdadero reportaje como periodista de viajes habría arruinado la revista. Lo que finalmente ocurrió, pero esa es otra historia.

Voy llegando a donde pretendo: siempre sentí que en aquel caso el periodista, o sea, yo, no era más que un tipo afortunado que cobraba (muy poco, como he dicho) por viajar, al revés que el resto de los mortales. Y que la verdadera estrella era el fotógrafo, al que uno le servía de simple palmero. La premisa, probablemente atinada, era que los lectores eran más bien miradores, y que sobre todo querían ver imágenes deslumbrantes de los destinos a donde les apetecería viajar.

Tuve la suerte entonces de conocer a fotógrafos excepcionales. De ellos pude aprender mucho como simple aficionado, pero solo ellos y ellas eran capaces de mirar donde todos mirábamos y retratarlo como nadie más. Aquella fotografía preciosista que marcaba el estilo de la publicación era un magnífico ejemplo de Ciencias Mixtas: ellos llevaban el arte en su mirada particular sobre el mundo; pero una vez elegidos el motivo y el encuadre, sabían cómo exprimir todo lo que un disparo podía dar de sí gracias a su conocimiento de la óptica.

Por entonces estábamos en plena transición de la foto analógica a la digital, y a menudo los fotógrafos viajaban con los dos formatos al mismo tiempo. Ya se utilizaba el Photoshop, pero allí únicamente se empleaba para cosas como añadir máscaras de enfoque o ajustar la luminosidad de las diapositivas escaneadas. Cuando veías uno de aquellos espectaculares fotones impreso a doble página en la revista, si recuperabas la diapositiva original, encontrabas exactamente lo mismo. No había trampa ni cartón, sino un dominio magistral del comportamiento de aquella criatura con la que trabajaban, la luz.

Imagen de Pexels.com.

Imagen de Pexels.com.

No pretendo decir que todo buen fotógrafo deba saber de ciencia óptica. No soy fotógrafo, así que no puedo saberlo. Y además, supongo que cada uno tiene su interpretación particular. Pero imagino que ocurre con todo: un pintor podrá investigar y explotar más profundamente su arte si conoce la teoría del color, o un músico la teoría musical, o un bailarín la biomecánica. La ciencia aporta al arte, y esta investigación en el arte aporta a la ciencia.

La generalización de la foto digital lo cambió todo, porque ya no existe un original, y ahora puede dispararse pensando desde el principio en lo que luego va a retocarse digitalmente. Es otro tipo de conocimiento al que los fotógrafos han debido adaptarse, pero muchos de ellos no están del todo contentos con el hecho de que una parte fundamental de su trabajo se haga exclusivamente sobre una pantalla.

Imagen de Wikipedia.

Imagen de Wikipedia.

Hace unos días he trabajado en un reportaje sobre la fotografía analógica (aún no publicado), y he descubierto a muchos fotógrafos profesionales y aficionados que están volviendo a la película, o que nunca la abandonaron. Este culto parece estar extendiéndose mucho más allá de los reductos clásicos como el selecto círculo de la lomografía.

El gusto por lo retro es algo que conocemos también en otros ámbitos, como el regreso del vinilo e incluso de la cassette. Y no es cosa de viejos rockeros, sino que muchos jóvenes se han saltado el CD: escuchan música digital en sus teléfonos y iPods, pero en su habitación solo pinchan vinilos (y, dicho sea de paso, así recuperan el gusto por ese viejo arte del disco de diez canciones, con su principio, su fin y su coherencia, frente al demonio de la lista de reproducción).

Quien me dio un panorama más completo de esta resurrección (o no-muerte) de la foto analógica fue Gil Pasternak, del Centro de Investigación en Historia de la Fotografía de la Universidad De Montfort (Reino Unido). Pasternak ha elaborado recientemente un estudio sobre el tema, aún sin publicar, en el que ha indagado en las razones de muchos fotógrafos aficionados, profesionales (sobre todo de bodas) y artistas para ceñirse a la foto analógica.

El resumen del resultado de la investigación de Pasternak, según me cuenta, son estas cinco razones que cito literalmente de sus palabras:

1. Algunos nativos digitales tienden a entrar en la fotografía analógica por el proceso, que consideran como algo mágico e inusual; utilizo el término nativos digitales como referencia a los jóvenes que crecieron con la fotografía digital como estándar, y que por tanto encuentran en la fotografía analógica un proceso experimental excitante.

2. Algunos adolescentes y adultos prefieren la fotografía analógica debido a sus cualidades materiales. Sienten que su implicación física directa en la fotografía confiere un valor añadido a las fotos que toman. En otras palabras, dan un gran significado al proceso de cargar la película en la cámara, sacarla y procesarla, imprimir las copias y sostenerlas. Este proceso de producción a postproducción hace sus fotografías mucho más personales a sus ojos que las imágenes digitales en la pantalla. Así, también consideran las fotografías producidas por medios analógicos como formas de referencia más auténticas a sus experiencias y a las narraciones de su vida que quieren recordar a través de las fotografías que toman.

3. Otro grupo asocia la fotografía analógica con la creatividad. Tienden a pensar que la foto analógica les permite ejercer un mayor control sobre las fotografías y las imágenes porque pueden interferir en el proceso y manipular las imágenes con mayor facilidad. Por ejemplo, mediante el uso de una amplia gama de productos, papel de color con negativos de blanco y negro, y la exposición del papel fotográfico a la luz antes de aplicarle el fijador (que finaliza el proceso neutralizando la sensibilidad del papel a la luz), etcétera.

4. Otros, especialmente los no nativos digitales, tienden a asociar la fotografía analógica con la nostalgia de la memoria, con el recuerdo de un viejo mundo más simple. Regresan a la fotografía analógica para reconectar con sentimientos y emociones que han experimentado en el pasado, cuando miran fotos familiares históricas y de su infancia.

5. Por último, algunos simplemente piensan que las imágenes digitales son demasiado claras, nítidas y transparentes. Perciben que las fotos analógicas, con sus imperfecciones, son representaciones más creíbles de la realidad, sobre todo porque la claridad de las imágenes digitales no les permite definir una distinción clara entre realidad y representación; es decir, entre presente y pasado.

Esta máquina puede funcionar durante 80 años sin apagarse jamás

¿Cuánto les duró su último teléfono móvil? ¿Su último ordenador? ¿Impresora, televisor, coche…? ¿Imaginan una máquina capaz de funcionar de forma continua sin un segundo de descanso durante más de 80 años, sin repuestos, con un mantenimiento sencillo y sin visitas al servicio técnico?

Imagen de Beth Scupham / Flickr / CC.

Imagen de Beth Scupham / Flickr / CC.

Cualquiera que alguna vez se haya sentido víctima de esa rápida obsolescencia –sea realmente programada o no– que sufren casi todas las máquinas presentes en nuestra vida debería balbucir de estupefacción ante la maravilla que guardamos en la jaula de huesos del pecho. Tal vez no suelan pensar en ello, pero su corazón no ha dejado de contraerse y expandirse a un ritmo preciso ni un solo momento en todos los años que han vivido.

Sí, es cierto que en una persona sana el resto de sus órganos también trabajan durante décadas. Pero a diferencia de otros, como el hígado o el riñón, el corazón es una máquina electromecánica, con partes móviles. Y todos los demás órganos dependen de este movimiento: si el corazón se detiene, aunque sea por un ratito, se acabó todo lo demás.

Hace unos tres meses, un análisis publicado en Nature sostenía que hay un límite máximo para la longevidad humana, y que ya lo hemos alcanzado: unos 115 años. Cuidado, no confundir longevidad con esperanza de vida. Esta última se refiere a la posibilidad de evitar la muerte por enfermedad u otro motivo mientras nuestro cuerpo aún podría seguir funcionando.

La longevidad planteada por los autores, de la Facultad de Medicina Albert Einstein de Nueva York, se refiere a la (posible) existencia de un límite biológico intrínseco que no puede romperse. Un cuerpo humano no puede vivir 150 años, del mismo modo que un nuevo récord de los 100 metros lisos arañará alguna centésima a la marca previa, pero un cuerpo humano no puede correr esa distancia en dos segundos (odio las metáforas deportivas, pero viene muy al pelo).

La longevidad máxima propuesta por los autores es un techo que no puede romperse simplemente progresando en la lucha contra la enfermedad y en los estándares de salud. Aunque ellos no lo ponían de este modo, en cierto modo seríamos víctimas de una obsolescencia programada, en nuestro caso genéticamente programada.

El artículo fue controvertido, ya que otros expertos en envejecimiento no están de acuerdo; al contrario que los autores, piensan que es demasiado pronto para fijarnos una fecha de caducidad, y que los avances científicos en este campo pueden ser hoy insospechados. Algunos de los críticos incluso afirmaban que el artículo no alcanzaba la categoría necesaria para haber sido aceptado por la revista Nature.

En el extremo opuesto al de los autores de este artículo se encuentran personajes como Aubrey de Grey, el gerontólogo británico que vive de afirmar que el ser humano alcanzará los mil años, y que el primer milenario del futuro ya está hoy caminando sobre la Tierra.

Ya he expresado antes mi opinión sobre las proclamas de De Grey, así que no voy a insistir en lo mismo, sino solo recordar un hecho inopinable: las Estrategias para la Senescencia Mínima por Ingeniería (SENS, en inglés), como De Grey denomina a su proyecto, aún no han logrado alargar la vida de ningún ser humano o animal. La propuesta de De Grey es actualmente tan indemostrable como irrefutable, lo que la deja en un limbo que muchos identificarían con la seudociencia. De Grey es un científico que no se gana la vida con lo que hace, sino con lo que dice que va a hacer.

La ciencia ficción nos deja imaginar cómo cualquiera de nuestras piezas defectuosas podría reemplazarse por una nueva gracias a la medicina regenerativa, hasta hacernos dudar de cuándo dejamos de ser nosotros mismos. Es la vieja paradoja del barco de Teseo (¿cuándo el barco de Teseo deja de ser el barco de Teseo a medida que se le van reemplazando piezas?), que la ficción ha explorado una y otra vez: en El mago de Oz, el Hombre de Hojalata era originalmente un humano que vio todo su cuerpo sustituido por piezas de metal… y que encontraba a su novia casada con el hombre construido con las partes del cuerpo que él perdió.

Claro que pasar de la ficción a la realidad puede ser no solo difícilmente viable, sino también espantoso; cada cierto tiempo resurge en los medios la historia del neurocirujano italiano que pretende llevar a cabo el primer trasplante de cabeza (o de cuerpo, según se mire), una propuesta increíble que nos recuerda otro hecho increíble, pero cierto: hay empresas de crionización que ofrecen a sus clientes la posibilidad de congelarse… solo la cabeza.

¿A dónde nos lleva todo esto? Tal vez a lo siguiente: antes de tratar de prolongar la vida más allá de lo que actualmente se nos presenta como un límite de longevidad, sea este límite quebrantable o no… ¿no sería más deseable alcanzar el ideal de que la esperanza de vida fuera una esperanza real para todos? Un cuerpo humano de 100 años de edad está esperando a ver cuál de sus órganos vitales es el primero en fallar. En lugar de suspirar por el hombre bicentenario, ¿y si pudiéramos evitar el fallo de un órgano vital cuando todos los demás aún están en perfecto funcionamiento?

Un ejemplo: de los millones de personas que cada año mueren por enfermedad cardiovascular, muchas de ellas sufren parada cardíaca. Otras sufren infartos de miocardio o cerebrales. Pero los infartos, provocados por un bloqueo arterial, pueden conducir también a un paro cardíaco, al cese de esa máquina aparentemente incesante. Estas muertes serían evitables si se pudiera mantener artificialmente el bombeo del corazón, pero lo normal es que la posibilidad de reiniciar esa máquina llegue demasiado tarde, cuando ya el daño en el resto del sistema es irreparable.

Un estudio publicado esta semana en la revista Science Translational Medicine describe una nueva tecnología que está muy cerca de evitar estas muertes. Investigadores de EEUU, Irlanda, Reino Unido y Alemania han creado una especie de funda robótica que envuelve el corazón y lo hace bombear artificialmente, sin perforarlo de ninguna manera ni entrar en contacto con la sangre, a diferencia de otros sistemas ya existentes. La funda está compuesta por músculos artificiales de silicona que se accionan por un sistema de aire comprimido, imitando el latido normal del corazón. Los investigadores lo han probado con corazones de cerdo y en animales vivos, con gran éxito.

Hoy los científicos tratan de reparar con células madre los daños en el corazón provocados por los infartos, lo que puede dar nueva vida al órgano de las personas que han sufrido daños en el músculo cardíaco. Incluso se apunta al objetivo final, aún lejano, de fabricar un corazón completo con células madre. Pero cuando un corazón se detiene, nada de esto sirve de mucho. Donde existe un órgano intacto, aunque incapaz de cumplir su función por sí mismo, una prótesis de bioingeniería como la del nuevo estudio podría permitir que una persona por lo demás sana pueda vivir muchos años más de lo que su corazón le permitiría.

Ya hay otros avances previos en esta misma línea. Naturalmente, desde el laboratorio hasta el hospital hay un larguísimo camino que no admite atajos. Pero este camino es genuinamente el de la ciencia de la prolongación de la vida: lograr que cumplir los 80 no sea un sueño inalcanzable para una gran parte de la humanidad. Lo de llegar a los 150, qué tal si lo dejamos para después. Y en cuanto a los mil años, hoy ni siquiera podemos saber si es ciencia ficción o solo fantasía, pero me vienen a la memoria las palabras de un personaje novelesco llevado al cine que vio pasar los siglos por delante de sus ojos:

To die,

To be really dead,

That must be glorious!

(Conde Drácula / Bela Lugosi)

Haga sus propios copos de nieve, e ilumine su árbol con peces eléctricos

Ya que el anticiclón no parece dispuesto a soltarnos y a falta de Navidades blancas, ¿qué tal aprovechar las vacaciones para fabricar sus propios copos de nieve en casa?

Copo de nieve fotografiado al microscopio. Imagen de Kenneth Libbrecht.

Copo de nieve fotografiado al microscopio. Imagen de Kenneth Libbrecht.

El físico de Caltech (EEUU) Kenneth G. Libbrecht es probablemente el mayor experto mundial en cristales de hielo: los crea, los estudia y los fotografía para comprender cómo se forman y en qué medida sus simétricas formas caprichosas dependen de factores como el grado de humedad, la presión o las variaciones sutiles de temperatura. Sus hermosas imágenes están libres de Photoshop; son fotomicrografías reales de copos sabiamente iluminados para que la luz se descomponga en los colores del arco iris.

Y por cierto, hasta tal punto las condiciones de crecimiento del cristal determinan su forma que Libbrecht ha desmontado el viejo mito según el cual no existen dos copos de nieve iguales: utilizando condiciones idénticas, el físico ha logrado crear cristales que son auténticos gemelos idénticos. Y no solo de dos en dos, sino hasta en grupos de varios.

En su web, Libbrecht detalla paso a paso una receta para crear copos de nieve en casa, que resumo aquí. Estos son los materiales necesarios:

Esquema del aparato para crear copos de nieve. Imagen de Kenneth Libbrecht.

Esquema del aparato para crear copos de nieve. Imagen de Kenneth Libbrecht.

  • Una botella pequeña de plástico (con tapón)
  • Tres vasos de poliestireno
  • Una esponja pequeña de 1 cm de grosor
  • Hilo de náilon
  • Aguja de coser
  • Cuatro alfileres
  • Un clip
  • Toallas de papel
  • Cinta adhesiva
  • Unos cinco kilos de hielo seco (puede comprarse por ejemplo aquí)

Primero, se corta el fondo de la botella de plástico a 1 cm de la base. En este fondo se encaja una esponja circular, que se fija clavando cuatro alfileres en los laterales. La esponja y el fondo de la botella se perforan en su centro con una aguja en la que se ha enhebrado el hilo de náilon. Este se fija al exterior de la base con cinta adhesiva, y en el otro extremo se ata el clip para que sirva de peso. La longitud total del hilo debe ser tal que, al volver a colocar el fondo a la botella y ponerla boca abajo, el clip quede dentro de la botella sin llegar al borde del cuello.

Todo este tinglado de la botella, una vez mojada la esponja con agua del grifo, se introduce en los vasos de poliestireno rellenos de hielo seco machacado, como muestra la figura, y se cubre con toallas de papel alrededor de la botella. Con los materiales que Libbrecht utiliza, el vaso que rodea la botella debe agujerearse por la base, pero el físico aclara que esta disposición es solo una sugerencia.

Copos de nieve creados en el experimento. Imagen de Kenneth Libbrecht.

Copos de nieve creados en el experimento. Imagen de Kenneth Libbrecht.

Lo importante es que en la botella se creen dos zonas, templada y húmeda arriba, fría y seca abajo. El agua de la esponja supersatura el aire de vapor, que difunde pasivamente hacia abajo (el aparato se llama cámara de difusión). Al encontrar la zona fría, comienza a cristalizar en torno a un sitio de nucleación, suministrado por las irregularidades del hilo, y a los pocos minutos comenzarán a aparecer los cristales como los de la foto.

Según explica Libbrecht, esto mismo sucede en la atmósfera cuando el aire cálido y húmedo encuentra aire frío. Según la temperatura de este sea mayor o menor de 0 ºC , se forma lluvia o nieve. Cada gota de lluvia o copo de nieve lleva en su interior alguna partícula de polvo que sirve para la nucleación.

Obtener fotografías como las de Libbrecht es algo mucho más complicado, ya que esto requiere un microscopio en frío. Pero los cristales de nieve que se forman pueden verse a simple vista o con una lupa.

Otra sugerencia para Navidad es controlar las luces del árbol mediante peces eléctricos, para quienes tengan acuario y sean además un poco frikis. La propuesta viene del Laboratorio de Peces Eléctricos dirigido por Jason Gallant en la Universidad Estatal de Michigan (EEUU).

Gallant aclara que los peces realmente no alimentan la iluminación del árbol, sino que controlan el parpadeo de las luces. Es decir, que el montaje es una manera navideña y original de comprobar cómo los peces eléctricos africanos Gymnarchus, según el científico fáciles de encontrar en las tiendas de acuarios, navegan y se comunican con impulsos eléctricos; cada vez que el pez emite un pulso, el árbol se ilumina.

Pez eléctrico africano Gymnarchus. Imagen de Wikipedia.

Pez eléctrico africano Gymnarchus. Imagen de Wikipedia.

Para poner en práctica la idea de Gallant se necesita algo de material electrónico, pero también ciertos conocimientos de informática para programar una plataforma Arduino. La lista de los componentes necesarios y el código para programar el sistema se detallan en el blog de Gallant. Feliz navidad y felices experimentos.

“Seguir sin agencia espacial es perder cuatro años más”

Vía libre a ExoMars 2020, la segunda fase del gran proyecto europeo de exploración marciana. Esta fue la decisión tomada la semana pasada por el Consejo Ministerial de la Agencia Europea del Espacio (ESA), entidad participada por 22 países (y NO dependiente de la UE), entre ellos este en el que estoy ahora sentado.

Ignacio Arruego, ingeniero del INTA, junto a un modelo de Schiaparelli. Imagen de I. A.

Ignacio Arruego, ingeniero del INTA, junto a un modelo de Schiaparelli. Imagen de I. A.

Les pongo en antecedentes: en marzo de este año se lanzó la primera fase de ExoMars, un proyecto nacido de la colaboración entre la ESA y Roscosmos, la agencia espacial rusa. Este primer volumen constaba a su vez de dos fascículos: primero, la Trace Gas Orbiter (Orbitador de Gases Traza o TGO), un satélite destinado a estudiar los gases raros de la atmósfera marciana con especial atención al metano, posible signo de vida.

Segundo, Schiaparelli, un platillo volante de un par de metros que debía posarse en el polvo de Marte para catar el ambiente, pero que sobre todo debía servir de ensayo general para la segunda fase. Previsto para 2020, el segundo volumen de ExoMars pretende poner un vehículo rodante o rover en el suelo marciano.

Además de su carácter científico y tecnológico, la misión ExoMars tiene bastante de revancha histórica; porque hasta ahora el nuevo mundo marciano tiene un dueño exclusivo, Estados Unidos. Como ya he repasado aquí y en otros medios, las misiones de aterrizaje en Marte han tenido una tasa de éxito inusualmente baja en comparación con los proyectos a otros destinos, como la Luna o Venus, pero este premio de lotería no ha estado muy repartido: mientras la NASA ha dado en el clavo en la gran mayoría de sus intentos, Rusia y Europa han fracasado. La primera solo logró 14,5 segundos de transmisión con su sonda Mars 3 hace 45 años. Por su parte, Europa perdió en 2003 su Beagle 2, y el pasado octubre Schiaparelli se estampó contra su objetivo.

Uno de los afectados directamente por este reciente desastre es Ignacio Arruego, ingeniero del Instituto Nacional de Técnica Aeroespacial (INTA) responsable del equipo que desarrolló el Sensor de Irradiancia Solar (SIS). Este aparato, que debía medir la transparencia de la atmósfera de Marte (la luz del sol que llega a su superficie), formaba parte del instrumento principal de Schiaparelli, el DREAMS (Dust Characterisation, Risk Assessment, and Environment Analyser on the Martian Surface). El equipo del INTA participa también de forma destacada en la instrumentación del rover de ExoMars 2020.

Portada de 'El medallón de Santiago', novela de Ignacio Arruego.

Portada de ‘El medallón de Santiago’, novela de Ignacio Arruego.

Y por cierto, aprovecho la ocasión para contarles que, entre proyecto y proyecto, Arruego también encuentra algún rato para escribir. Su novela de debut, El medallón de Santiago, es una intriga con trasfondo histórico muy viajero que cuenta la investigación de sus dos protagonistas en busca de un antiguo y misterioso medallón que perteneció al apóstol Santiago.

Arruego me dice que está satisfecho con la decisión del Consejo Ministerial de la ESA de mantener la financiación de ExoMars. Pero no tanto con las palabras del ministro Luis de Guindos, que presidió la reunión debutando en este campo, tras asumir en el nuevo gobierno las competencias del sector espacial que antes recaían en Industria. Una carencia clásica de España es la falta de una agencia espacial, algo que tienen las principales potencias con actividades en este terreno. Según Arruego, las declaraciones de Guindos tras la reunión afirmando que España no necesita una agencia espacial han sentado muy mal en el sector. Esto es lo que me ha contado:

¿Por qué Guindos no quiere una agencia española del espacio?

Es gracioso, porque en cambio sí reconocía que hace falta coordinación entre todos los actores espaciales en España. Pues eso es precisamente, entre otras muchas cosas, lo que haría una agencia. Yo creo que siguen pensando que supondría un coste, y no se dan cuenta de que realmente existen ya todos los actores necesarios en España para hacer una agencia de verdad, ¡y por tanto una buena coordinación podría incluso disminuir gasto! Debería ser no un mero órgano gestor, sino una agencia con capacidad técnica y tecnológica, que defina y desarrolle programas propios tirando de la industria nacional, y estrategias internacionales y especialmente en la ESA; que aúne ingeniería de sistemas, I+D tecnológico y científico, la gestión económica, las relaciones con la ESA… En fin, una Agencia con mayúsculas.

Una pena. Lo considero otra oportunidad perdida por la falta de visión de nuestros políticos, sin duda mal asesorados. Otros cuatro años perdidos para que España termine de situarse en el mapa espacial internacional.

¿Hay nuevos datos sobre qué le ocurrió a Schiaparelli?

Como ya sabrás, se produjeron fundamentalmente dos eventos que provocaron la colisión: la suelta prematura del paracaídas y el corto encendido de los retrocohetes. Se ha especulado mucho sobre un fallo del altímetro radar, pero no parece estar allí el problema. Analizada la telemetría de la Unidad de Medida Inercial (IMU) que mide las aceleraciones de la nave durante el descenso, se observa que hay un breve lapso de tiempo (inferior a un segundo) en el que una de las medidas está saturada. Dado que el ordenador va calculando la orientación de la nave en base a las medidas acumuladas de esta IMU, durante el tiempo que ésta se satura no dispone de una información fidedigna. Ese dato de la IMU te permite saber cómo está orientada la nave respecto al suelo, y el radar te da la distancia al mismo según avanza la nave. Al estar equivocado el dato de la orientación, la nave llegó a obtener un valor que indicaba que la distancia real (en vertical) al suelo era negativa. Es decir, que había aterrizado. Y por eso cortó los retrocohetes.

Otra cosa que hizo, y esto es curioso, fue encender DREAMS, la estación meteorológica que transportaba y en la que participaba el INTA. DREAMS no debía encenderse hasta después del aterrizaje, pero como el ordenador pensó que había aterrizado aún estando a unos tres kilómetros de altura, nos encendió. Hay unos 40 segundos de telemetría relativa al estado de DREAMS, que era cien por cien nominal. Podemos decir que hemos llegado a Marte, pero poco rato.

¿Se ha averiguado algo sobre cuál fue la causa de ese error de percepción de Schiaparelli?

Aún se desconoce, y dudo que llegue a conocerse con un 100% de seguridad. La nave sufría unas aceleraciones digamos que laterales mayores de lo esperado pero, ¿por qué? ¿Rachas de viento fuerte? ¿Un mal despliegue del paracaídas? Eso no sé si llegaremos a saberlo con seguridad.

ExoMars 2020 sigue adelante, pero ¿en qué afectará el fracaso de Schiaparelli desde el punto de vista técnico?

La ESA trata de ser positiva en su análisis del resultado de ExoMars 2016. La realidad es que TGO está funcionando de momento según lo esperado, lo cual es un gran éxito. Y Schiaparelli, por mucho que suene a excusa, es cierto que era un módulo de demostración con el objetivo de permitirnos aprender a aterrizar en Marte. De alguna manera ha cumplido su misión en ese sentido, pues como ves se ha aprendido mucho de la telemetría enviada durante el descenso. Se reforzarán los ensayos a los elementos críticos y se revisarán algunas secuencias de tomas de decisiones. Se ha aprendido, sin duda.

¿Y este aprendizaje ofrecerá más garantías de éxito a la próxima fase?

Sí, en 2020 deberíamos ser capaces de aterrizar con más garantías. No es trivial, aún así. No sólo porque nunca lo es (el conocimiento de la atmósfera de Marte sigue siendo muy incierto), sino porque la nueva misión es bastante más pesada (algo así como el triple si no recuerdo mal), requiere el uso de dos paracaídas (uno hipersónico y otro subsónico), etcétera. Hay diferencias. Pero hay que ser optimista y sobre todo trabajar duro en los elementos críticos y en sus ensayos. Creo que irá bien.

¿Cuál es tu predicción sobre el futuro de las misiones tripuladas?

Como sabes, hay dos grandes corrientes de pensamiento en torno a cómo ir a Marte. Una pasa por ir llevando todo lo que nos hace falta para volver. Empezando por el combustible para el despegue de vuelta. Se barajan naves muy grandes, a menudo con ensamblajes en órbita porque la capacidad de despegue de la Tierra no daría para lanzarlas de una vez.

La otra aproximación pasa por emplear naves más pequeñas, tripulaciones muy reducidas, y hacer uso intensivo de ciertos recursos existentes en Marte. Por ejemplo, es posible generar el combustible allí para un despegue desde Marte, llevando sólo una pequeñísima parte de sus componentes (hidrógeno, en concreto), y obteniendo carbono y oxígeno de la atmósfera de Marte, rica en CO2.

Yo creo que hasta la fecha siempre se ha hablado más de la primera aproximación. Yo a día de hoy soy más partidario de la segunda. Creo que es la más realista para un primer viaje tripulado, y que terminará imponiéndose. Probablemente la tecnología permita tenerla lista en unos 15 años desde que se decida ponerse con ello. Pero nadie se ha puesto seriamente aún. Existe la Iniciativa Mars Direct desde hace la tira, pero nunca ha sido el enfoque adoptado por las grandes agencias, ni parece que lo sea ahora por gente como Elon Musk. Creo que si hay un cambio de enfoque veremos humanos en Marte bastante antes de la mitad del siglo. Si no lo hay, ya veremos.

¿Son un placebo los botones de los semáforos?

Recuerdo un cuento de Richard Matheson titulado Button, Button, en el que un extraño ofrecía a una pareja con graves problemas económicos la posibilidad de ganar una gran cantidad de dinero simplemente pulsando el botón de una caja. Pero si decidían hacerlo, alguien a quien ellos no conocían iba a morir. Mientras discutían el dilema moral al que se enfrentaban, la mujer decidía abrir la caja y descubría que estaba vacía; bajo el botón no había ningún mecanismo.

La historia me ha venido a la mente a propósito de un artículo publicado hace unas semanas en el New York Times sobre los botones placebo. A algunos les llegará de sorpresa, a otros no, y muchos siempre lo habrán sospechado: algunos de los botones que encontramos en los ascensores y que sirven para cerrar las puertas, o que en los semáforos nos invitan a pulsar para esperar el verde, o los mandos que regulan el termostato de la temperatura en las oficinas, tal vez sean más falsos que un Mondrian pintado por mi hijo de cuatro años.

Un botón de semáforo. Imagen de Wikipedia.

Un botón de semáforo. Imagen de Wikipedia.

Según escribe Christopher Mele en el diario neoyorquino, en EEUU los botones de cerrar puertas en los ascensores funcionaban hasta 1990. Entonces se aprobó en aquel país una ley de discapacidad que obligaba a dejar un margen suficiente para que las personas en silla de ruedas o con otras dificultades de movilidad tuvieran tiempo suficiente de entrar en los acensores, lo que obligó a deshabilitar los botones de cerrar puertas. Desde entonces, al menos allí, estos pulsadores solo hacen algo si se introduce la llave que usan los empleados de mantenimiento.

Algo similar ocurre con los termostatos de muchas oficinas, que son de pega. Según explica el artículo, el simple hecho de hacer creer a los trabajadores que pueden regular la temperatura para sentirse más a gusto les hace sentirse más a gusto, aunque la manipulación del termostato no tenga ningún efecto real sobre la temperatura. Según una fuente del sector citada por Mele, un falso termostato reduce en un 75% las llamadas a la asistencia técnica.

Este último dato ilustra por qué esta existencia de botones falsos no se contempla como un resto del pasado a eliminar, sino que incluso se continúa fomentando. ¿Y por qué? En 1975, una psicóloga llamada Ellen Langer publicó un célebre estudio en la revista Journal of Personality and Social Psychology en el que acuñaba una expresión, la “ilusión del control”. Langer demostraba que muchos jugadores actúan u optan de determinadas maneras porque piensan que eso aumenta sus posibilidades de ganar, cuando en realidad esas acciones u opciones no tienen ningún efecto.

Pensemos en la Lotería de Navidad, ya tan próxima: muchos eligen números que representan fechas concretas, que les resultan significativos o que les parecen “bonitos”. Pero en realidad, todos los números del bombo tienen teóricamente la misma probabilidad de resultar premiados.

Esta ilusión de tener el control sobre un resultado que realmente escapa a nuestro poder es también la que justifica la existencia de los botones placebo: como en el caso de los termostatos, resulta satisfatorio pensar que tenemos el dominio de la situación, ya sea regular la temperatura de la oficina, cerrar las puertas del ascensor o detener el tráfico para cruzar la calle. Todo ello apela a lo que los psicólogos llaman el sentido de agencia, el sentimiento de que tenemos control sobre nuestras acciones y sus consecuencias.

El último ejemplo de los que he citado es mi favorito. Uno, como padre responsable, trata de enseñar a sus criaturas a no morir atropelladas, instruyéndoles sobre cómo cruzar la calle en tiempo y forma. Siempre que hay uno de esos botoncitos verdes que dicen “peatón pulse – espere verde”, les digo que pulsen. Lo cual hacen encantados, ya que a los niños les chifla apretar botones. Y si piensan que los coches se han parado gracias a ellos, entonces ya no caben en sí de orgullo. Pero uno siempre se pregunta: ¿realmente ese botón hace algo?

Según parece, no hay una respuesta única. El artículo de Mele cuenta que en su día los botones de los semáforos se colocaron con una finalidad genuina, para ayudar a regular el tráfico. Pero con el tiempo, cuando se introdujo el control por ordenador, dejaron de ser funcionales. Según Mele, en Nueva York hoy solo quedan unos pocos que responden a quien los pulsa.

Un estudio publicado en 2013 por investigadores de Microsoft y la Universidad de Michigan enfocaba el estudio de estos artefactos desde el punto de vista de la interacción humano-máquina para acuñar otra expresión: “engaño benevolente”, una especie de mentira piadosa que beneficia al usuario. Supuestamente, el hecho de apretar el botón de los semáforos no solo satisface el sentido de agencia, sino que al hacerlo el peatón tenderá a esperar con más paciencia el cambio de semáforo y no se lanzará a tratar de sortear el tráfico en rojo.

Un artículo de la BBC publicado en 2013 explicaba que el sistema informatizado de regulación de tráfico empleado en Reino Unido, llamado SCOOT (siglas de Split Cycle Offset Optimisation Technique), pone los botones en modo placebo durante el día, cuando el tráfico es intenso, y los activa por la noche.

Por otra parte, este trabajo de la ingeniera industrial Emma Holgado nos cuenta que el SCOOT se emplea también en Madrid, lo que nos lleva a una clara conclusión: si viven en Madrid (y supongo que en Barcelona y otras ciudades del país), apretar el botón durante el día no les servirá de nada. Pero háganlo, que los placebos también son eficaces incluso cuando sabemos que lo son. Y si van con niños, no les quiten la ilusión de pensar que son ellos quienes detienen el tráfico. Se sienten casi como superhéroes.