BLOGS
Ciencias mixtas Ciencias mixtas

Los secretos de las ciencias para
los que también son de letras

Entradas etiquetadas como ‘tecnología’

Inteligencia Artificial sin supervisión humana: ¿qué puede salir mal?

El físico Stephen Hawking lleva unos años transmutado en profeta del apocalipsis, urgiéndonos a colonizar otros planetas para evitar nuestra pronta extinción, advirtiéndonos sobre los riesgos de contactar con especies alienígenas más avanzadas que nosotros, o alertándonos de que la Inteligencia Artificial (IA) puede aniquilarnos si su control se nos va de las manos.

En su última aparición pública, en una entrevista para la revista Wired, Hawking dice: “Temo que la IA reemplace por completo a los humanos. Si la gente diseña virus informáticos, alguien diseñará IA que mejore y se replique a sí misma. Esta será una nueva forma de vida que superará a los humanos”. Los temores de Hawking son compartidos por personajes como Elon Musk (SpaceX, Tesla), pero no por otros como Bill Gates (Microsoft) o Mark Zuckerberg (Facebook).

Stephen Hawking en la Universidad de Cambridge. Imagen de Lwp Kommunikáció / Flickr / CC.

Stephen Hawking en la Universidad de Cambridge. Imagen de Lwp Kommunikáció / Flickr / CC.

La referencia de Hawking a los virus informáticos es oportuna. Como he contado recientemente en otro medio, los primeros virus creados en los años 70 y a principios de los 80 en los laboratorios de investigación no eran agresivos, sino que eran herramientas experimentales destinadas a medir el tamaño de la red o a probar su capacidad de diseminación. O se trataba de simples bromas sin malicia. El primer virus nocivo, llamado Brain y creado por dos hermanos paquistaníes en 1986, era tan inocente que sus autores incluían su información de contacto para distribuir la cura. Brain era un virus justiciero, que tenía por objeto castigar a quienes piratearan el software desarrollado por los dos hermanos.

Pero cuando la computación viral escapó del laboratorio y llegó a los garajes, pronto comenzaron a aparecer los virus realmente tóxicos, algunos creados con ánimo de lucro, otros simplemente con ánimo de hacer daño por hacer daño. Una vez que los sistemas de IA se popularicen y se pongan al alcance de cualquier persona con más conocimientos informáticos que conciencia moral, es evidente que habrá quienes quieran utilizarlos con fines maliciosos.

Y cuando esto ocurra, puede ser difícil evitar desastres, dado que uno de los objetivos actuales de los investigadores es precisamente desarrollar sistemas de IA que puedan funcionar sin intervención humana.

Un ejemplo lo conté ayer a propósito de la aproximación de la realidad virtual a la real, y es importante insistir en cuál es la diferencia entre los rostros creados por NVIDIA que mostré ayer y las casi perfectas recreaciones digitales que hoy vemos en el cine de animación y los videojuegos. Como ejemplo, el Blog del Becario de esta casa contaba la historia de una pareja de artistas digitales japoneses que producen caracteres humanos hiperrealistas como Saya, una chica virtual. Pero los personajes que producen Teruyuki y Yuka Ishikawa, aunque lógicamente generados por ordenador, llevan detrás un largo trabajo de artesanía digital: según los Ishikawa, todas sus texturas son pintadas a mano, no clonadas de fotografías.

Por el contrario, en la creación de las celebrities virtuales de NVIDIA que traje ayer aquí no ha intervenido la mano de ningún artista: han sido generadas enteramente por las dos redes neuronales que componen la GAN, en un proceso sin supervisión humana.

La eliminación del factor humano ha sido la clave también en el desarrollo de AlphaGo Zero, la nueva máquina de DeepMind (Google) para jugar al juego tradicional chino Go. La generación anterior aprendía analizando miles de partidas de los mejores jugadores del mundo. Gracias a este aprendizaje, la anterior versión de AlphaGo consiguió vencer al campeón mundial, el chino Ke Jie. Ke describió la máquina de DeepMind como el “dios del Go”.

Juego del Go. Imagen de PublicDomainPictures.net.

Juego del Go. Imagen de PublicDomainPictures.net.

Pero para crear AlphaGo Zero, los investigadores de DeepMind han decidido prescindir de la enseñanza humana: simplemente le han suministrado las reglas básicas del juego, y han dejado que sea la propia máquina la que se enseñe a sí misma. Los resultados son escalofriantes: en solo tres días de aprendizaje, Zero ganó cien partidas de cien a AlphaGo Lee, una versión más antigua. En 21 días alcanzó el nivel de AlphaGo Master, la versión que venció a Ke. En 40 días, Zero se convirtió indiscutiblemente en el mejor jugador de Go del mundo y de la historia, acumulando un conocimiento superior a miles de años de práctica.

Los creadores de la red neuronal de Zero escribieron en la revista Nature que su capacidad es “sobrehumana”. El científico computacional Nick Hynes, que no participó en el trabajo, dijo a Gizmodo que Zero es “como una civilización alienígena inventando sus propias matemáticas”.

La lección aprendida del caso de Zero es que, al menos en ciertos campos, la IA progresa mucho más deprisa y con mayor eficacia cuando prescinde de la enseñanza de esos torpes seres orgánicos llamados humanos. Basándose en este principio, la nueva tecnología desarrollada por Google y llamada AutoML consiste en dejar que las redes neuronales las diseñen las propias redes neuronales; es decir, crear IA que a su vez crea mejores versiones de IA. Máquinas que diseñan máquinas. Como Skynet, pero sin robots.

¿Qué puede salir mal? Es cierto que numerosos expertos en computación y en IA califican a Hawking de alarmista, y sus opiniones de perniciosas para la imagen pública de la IA, y aclaran que los sistemas con capacidad de traernos el apocalipsis de la saga Terminator aún son solo cosas de la ciencia ficción. Al fin y al cabo, concluyen estos expertos, Hawking no es un especialista en IA.

Pero dejando aparte que una de las mentes más brillantes del mundo merece crédito y atención cuando opina sobre cualquier cosa que le dé la gana –faltaría más, si hasta se les pregunta a los futbolistas sobre política–, y que en realidad la especialidad de Hawking, y lo que ha hecho maravillosamente bien, es precisamente hacer predicciones teóricas a través de largas y complicadas cadenas de razonamientos lógicos con variables a veces desconocidas… Incluso dejando aparte todo esto, ¿quién es el que despacha los títulos de especialista en predecir el futuro?

Pronto no podremos distinguir la realidad virtual de la real

Observen estas fotos de caras. ¿Notan algo raro en ellas?

Imagen de NVIDIA.

Imagen de NVIDIA.

Parecen rostros de gente guapa, celebrities en la alfombra roja o en un photocall de alguna gala. Pero no lograrán reconocer a ni uno solo de ellos. Porque estas personas jamás han existido: son caras virtuales generadas por un sistema de Inteligencia Artificial (IA) desarrollado por NVIDIA, la compañía que tal vez haya fabricado la tarjeta gráfica del ordenador en el que estén leyendo este artículo.

Imagino que son perfectamente conscientes de cómo han evolucionado los gráficos por ordenador en unas pocas décadas. Pero no puedo resistir la tentación de ilustrarlo con este ejemplo. Así era Indiana Jones hace 35 años en el videojuego de la consola Atari Raiders of the Lost Ark, con el cual este que suscribe disfrutaba jugando en su infancia, y mucho:

Indiana Jones en el videojuego Raiders of the Lost Ark de Atari (1982). Imagen de Atari.

Indiana Jones en el videojuego Raiders of the Lost Ark de Atari (1982). Imagen de Atari.

Los autores del trabajo han empleado un tipo de algoritmo de IA creado en 2014 llamado Red Generativa Antagónica (GAN por las siglas de su nombre en inglés, Generative Adversarial Network), que emplea dos redes neuronales trabajando en equipo: una genera las caras, mientras que la otra las evalúa.

Las evaluaciones de la red discriminadora ayudan a la red generadora a ir aprendiendo a crear caras cada vez más realistas, mientras que el perfeccionamiento del trabajo de la red generadora ayuda a la red discriminadora a mejorar su capacidad de identificar los errores. Así, la GAN aprende de forma no supervisada, a partir de sus propias observaciones. En este caso, los investigadores de NVIDIA le suministraron a la GAN una base de datos de fotos de celebrities, y el sistema aprendió a crear las suyas propias.

Sistemas como esta GAN de NVIDIA están comenzando a saltar la barrera del llamado Uncanny Valley o Valle Inquietante, una expresión acuñada para la robótica y que describe el efecto de aquellas creaciones humanoides que se aproximan bastante a la realidad, pero sin llegar a confundirse con ella. En este caso, casi cuesta creer que los rostros creados por la GAN no correspondan a personas reales.

Pero el actual perfeccionamiento en la imitación de lo humano va más allá de unos rostros estáticos. WaveNet, una red neuronal creada por la compañía DeepMind, propiedad de Google, consigue la que según los expertos es hasta ahora la voz sintética más parecida a la humana. Juzguen ustedes (en este vídeo, WaveNet se compara con otros sistemas existentes):

Dicen que en la voz aún se nota un cierto tinte artificial. Tal vez sea cierto, pero personalmente creo que si escucháramos estas voces fuera de un contexto en el que se nos pida juzgar su autenticidad, nunca sospecharíamos que detrás de ellas no hay una laringe y una boca humanas.

También espectacular es el sistema desarrollado por la compañía canadiense Lyrebird. A partir de un solo minuto de grabación de audio, es capaz de recrear digitalmente la voz de cualquier persona. Como ejemplo, Lyrebird presenta la voz recreada de Donald Trump, pero cualquier usuario puede registrarse en su web y recrear digitalmente su propia voz.

En este camino de la virtualidad hacia el perfeccionamiento en la imitación de la realidad, la guinda la pone el sistema creado por un equipo de la Universidad de Washington (EEUU): a partir de un clip de audio con un discurso cualquiera, y otro fragmento de vídeo de alguien hablando, logra que el movimiento de los labios de la persona se sincronice con las frases grabadas. Es decir, construye un vídeo de alguien diciendo algo. Los investigadores utilizaron como ejemplo un discurso de Barack Obama:

El coautor del trabajo Steven Seitz aclaraba que su red neuronal no puede conseguir que una persona aparezca diciendo algo que nunca dijo, ya que debe utilizar como material de partida un clip de audio real con la voz de la persona en cuestión. “Simplemente tomamos palabras reales que alguien dijo y las transformamos en un vídeo realista de ese individuo”.

Claro que para eso está el sistema de Lyrebird, que sí puede lograr que cualquiera diga algo que jamás dijo. El sistema de la Universidad de Washington podría entonces transformar ese clip de audio ficticio en un vídeo tan falso como realista.

Todos estos desarrollos nos conducen hacia un escenario en el que pronto la realidad real y la realidad virtual solo estarán separadas por una barrera: una pantalla. Es decir, dado que los robots antropomórficos realistas aún distan mucho tiempo en el futuro, todavía podremos estar seguros de que lo tangible, todo aquello que podemos tocar, es real. Pero con respecto a cualquier cosa que se nos muestre a través de una pantalla, en unos pocos años será difícil distinguir si todo, todo, es real o no. Y en la era de la postverdad, la superación del Valle Inquietante nos lleva hacia un lugar aún más inquietante.

¿Y si en realidad no somos reales, sino personajes de un videojuego?

Cuando Trump ganó las elecciones en EEUU y triunfó el Brexit, hubo muchos que se dijeron: esto no puede estar pasando. Pero entre estos, hay algunos para los que no es simplemente una frase hecha, sino que realmente creen que esto no pude estar pasando. O sea, que no es real. Que es una simulación. Que somos una simulación. O dicho de otro modo, un videojuego carísimo e increíblemente complejo. Y si añadimos todo lo que está ocurriendo últimamente por nuestros pagos, los defensores de esta hipótesis pueden frotarse las manos.

Mario Bros. Imagen de Nintendo.

Mario Bros. Imagen de Nintendo.

En efecto, como en Matrix. Tal vez ya hayan oído hablar de lo que corre en ciertos círculos como la hipótesis de la simulación. O si es la primera vez que leen sobre ello, puede que les parezca el mayor hallazgo intelectual de la historia de la humanidad, o todo lo contrario, una pura masturbación mental a la que no merece la pena dedicar ni medio segundo y que provoca risa con esa flojera del sonrojo. Incluso a lo largo de un mismo día, dependiendo de si pierden el autobús o se les queman las tostadas, puede que piensen ambas cosas indistintamente. A mí me ocurre.

Los antecedentes de esta loca idea son ilustres, desde la caverna de Platón a La vida es sueño de Calderón. Cuatro siglos antes de nuestra era, el filósofo chino Zhuang Zhou se enfrentaba a la imposibilidad de distinguir cuál era la verdadera realidad, si la que entendemos como real o la que experimentamos durante nuestros sueños, que nos parece igualmente real cuando estamos inmersos en ella. Bertrand Russell inventó una idea llamada Tierra de Cinco Minutos, según la cual el universo podría haberse creado hace cinco minutos y nosotros sin enterarnos, creyendo recordar un pasado que podría ser totalmente ficticio. En los años 70, el genial Philip K. Dick también planteó la posibilidad de que vivamos en una realidad programada por ordenador.

Pero el responsable de haberla liado definitivamente es Nick Bostrom, filósofo sueco de la Universidad de Oxford. En 2003 Bostrom publicó un trabajo en el que desarrollaba la hipótesis más o menos según la siguiente línea lógica: el desarrollo tecnológico es imparable y nos lleva a construir simulaciones informatizadas cada vez más complejas. En un futuro con una tecnología infinitamente superior a la actual, los posthumanos llegarán a ser capaces de crear simulaciones a cuyos personajes se les pueda dotar incluso de consciencia.

Estos posthumanos crearán simulaciones del pasado, de sus antepasados, de nosotros. Dado que en el futuro esto será un ejercicio tan corriente y extendido como lo son hoy nuestros videojuegos, se crearán millones de estas simulaciones; al fin y al cabo, ¿cuántas copias de juegos como Los Sims existen en el mundo? Y si existen millones de estas simulaciones y solo una única realidad, la probabilidad de que nosotros seamos reales, que vivamos en la “realidad base”, es ínfima: tenemos una posibilidad contra millones de no ser una simulación.

Todo esto, argumentaba Bostrom, siempre que la humanidad no se extinga antes de llegar al estado posthumano, y a no ser que por algún motivo nuestros futuros descendientes decidan no crear simulaciones. Resumiendo, Bostrom afirmaba que al menos una de estas tres proposiciones tiene que ser cierta: a) La humanidad queda aniquilada antes de alcanzar la fase posthumana. b) Los posthumanos no están interesados en construir simulaciones. c) Vivimos en una simulación.

El gusanillo de la simulación ha cautivado a un buen número de científicos y tecnólogos. Elon Musk, multimagnate tecnológico y en quien confiamos para que algún día nos lleve a Marte, está completamente convencido de que, en efecto, vivimos en una simulación. La idea ha llegado a cautivar tan obsesivamente a algunos que, según contaba la revista The New Yorker el año pasado, dos millonarios del Silicon Valley cuyos nombres no se revelaban habrían contratado a un equipo de científicos para tratar de “sacarnos de la simulación”.

Pero naturalmente, los filósofos se mueven en un plano diferente al de los científicos. Los científicos trabajan en la realidad, mientras que el deber de un filósofo es calzarse las botas, ponerse el casco y bajar al sótano para inspeccionar los cimientos de esa realidad. Por desgracia, suelen alegar Bostrom y otros, es prácticamente imposible que científicamente lleguemos a conocer la verdad. Demostrar que no vivimos en una simulación es por definición impracticable: cualquier indicio que pudiera aportarse podría formar parte de la simulación. En ciencia a menudo suele ser inviable demostrar un negativo.

Y en cuanto a probar que vivimos en una simulación, y por mucho que algunas de las mejores mentes del mundo se ocupen en tratar de sacarnos de ella… Admitámoslo: si realmente fuéramos una simulación, salir de ella parece algo tan factible como que, de repente, Mario abandone la pantalla y comience a saltar por encima de los champiñones de nuestra pizza.

Aquí les dejo un vídeo que lo explica muy certeramente. En inglés, pero con subtítulos. Que disfruten de su cena simulada.

¿Por qué invadir otro planeta, si se puede ‘teleinvadir’?

Dado que no tengo plan de escribir próximamente ninguna historia de ciencia ficción (mi Tulipanes de Marte era una novela con ciencia ficción, no de ciencia ficción), de vez en cuando dejo caer aquí alguna idea por si a alguien le apetece explorarla.

Tampoco pretendo colgarme ninguna medalla a la originalidad, dado que en general es difícil encontrar algo nuevo bajo el sol, o cualquier otra estrella bajo la cual haya alguien, si es que hay alguien bajo otra estrella. Imagino que ya se habrán escrito historias que no recuerdo o no conozco, y que plantean este enfoque. Pero en general, las ficciones sobre invasiones alienígenas se basan en la presencia física de los invasores en el territorio de los invadidos.

¿Por qué unos alienígenas sumamente avanzados iban a tomarse la molestia, poniendo en riesgo incluso sus propias vidas, de invadir ellos mismos?

Imagen de 'Mars Attacks!' (1996), de Tim Burton. Warner Bros.

Imagen de ‘Mars Attacks!’ (1996), de Tim Burton. Warner Bros.

Futurólogos como Ray Kurzweil pronostican un mañana en que los humanos cargaremos nuestras mentes en máquinas, llámense internet o la nube, y podremos alcanzar la inmortalidad prescindiendo de nuestros cuerpos biológicos. Descontando el hecho de que sería una inmortalidad insoportablemente aburrida, y de que los biólogos nos quedaríamos sin tarea, lo cierto es que hoy son muchos los investigadores en inteligencia artificial que trabajan inspirados por este horizonte. Así que sus razones tendrán.

Imaginemos una civilización que ha alcanzado semejante nivel de desarrollo. ¿No sería lógico que evitaran el riesgo de mancharse las manos (o sus apéndices equivalentes) con una invasión presencial, y que en su lugar teleinvadieran, sirviéndose de máquinas controladas a distancia o capaces de razonar y actuar de forma autónoma?

Una buena razón para ello aparecía ya en la novela que comenzó a popularizar el género en 1897. En La guerra de los mundos de H. G. Wells, los marcianos llegaban a la Tierra a bordo de sus naves, un esquema copiado después una y otra vez. La última versión para el cine, la que dirigió Spielberg en 2005, aportaba una interesante variación: las máquinas de guerra ya estaban presentes en la Tierra desde tiempos antiguos. Pero también en este caso, sus creadores se desplazaban hasta nuestro planeta para pilotarlas.

Como biólogo que era, Wells resolvió la historia con un desenlace científico genial para su época. Aunque el concepto de inmunidad venía circulando desde antiguo, no fue hasta finales del XIX cuando Pasteur y Koch le dieron forma moderna. Wells tiró de esta ciencia entonces innovadora para matar a sus marcianos por una infección de bacterias terrestres, contra las cuales los invasores no estaban inmunizados. La idea era enormemente avanzada en tiempos de Wells, y si hoy parece casi obvia, no olvidemos que prácticamente todas las ficciones actuales sobre alienígenas la pasan por alto (una razón más que hace biológicamente implausibles la mayoría de las películas de ciencia ficción).

Marciano moribundo en 'La guerra de los mundos' (2005). Imagen de Paramount Pictures.

Marciano moribundo en ‘La guerra de los mundos’ (2005). Imagen de Paramount Pictures.

Así, cualquier especie alienígena invasora preferiría evitar riesgos como el de servir de comida a una legión de microbios extraños y agresivos, lo que refuerza la opción de la teleinvasión. Pero hay una limitación para esta idea: la distancia a la que se puede teleinvadir.

Dado que la velocidad máxima de las transmisiones es la de la luz, una teleinvasión en tiempo real obligaría a los alienígenas a acercarse lo más posible a la Tierra. Ya a la distancia de la Luna, una transmisión de ida y vuelta requiere 2,6 segundos, un tiempo de reacción demasiado largo. Probablemente les interesaría mantenerse en una órbita lo suficientemente alejada para evitar una respuesta de la Tierra en forma de misiles.

Y lo mismo que sirve para una invasión alienígena, podría aplicarse a la visita humana a otros mundos. Precisamente esta telepresencia es el motivo de un artículo que hoy publica la revista Science Robotics, y cuyos autores proponen esta estrategia para explorar Marte. Naturalmente, esta ha sido hasta ahora la fórmula utilizada en todas las misiones marcianas. Pero el retraso en las comunicaciones entre la Tierra y su vecino, que oscila entre 5 y 40 minutos según las posiciones de ambos planetas en sus órbitas, impide que los controladores de la misión puedan operar los robots en tiempo real.

Los autores proponen situar un hábitat no en la superficie marciana, sino en la órbita, lo que reduciría los costes de la misión y los riesgos para sus tripulantes. Los astronautas de esta estación espacial marciana podrían controlar al mismo tiempo un gran número de robots en la superficie, que les ofrecerían visión y capacidad de acción inmediatas, casi como si ellos mismos estuvieran pisando Marte. Las posibilidades son casi infinitas, por ejemplo de cara a la ejecución de experimentos biológicos destinados a buscar rastros de vida pasada o presente. Los autores apuntan que ya hay un grupo en el Instituto Keck de Estudios Espaciales dedicado a evaluar la teleexploración de Marte.

Concepto para una exploración de Marte por telepresencia desde un hábitat en órbita. Imagen de NASA.

Concepto para una exploración de Marte por telepresencia desde un hábitat en órbita. Imagen de NASA.

Claro que otra posibilidad, quizá más lejana en el futuro, es que estas máquinas puedan pensar por sí mismas sin necesidad de que nadie las controle a distancia. En el mismo número de Science Robotics se publica otro artículo que evalúa un software inteligente llamado AEGIS, instalado en el rover marciano Curiosity y que le ha permitido seleccionar de forma autónoma las rocas y suelos más interesantes para su estudio, con un 93% de precisión.

Pero esto es solo el principio. En un tercer artículo, dos científicos de la NASA reflexionan sobre cómo las futuras sondas espaciales inteligentes podrán trabajar sin intervención humana para la observación de la Tierra desde el espacio, para la exploración de otros mundos del Sistema Solar e incluso para viajar a otras estrellas. Escriben los investigadores:

El último desafío para los exploradores científicos robóticos sería visitar nuestro sistema solar vecino más próximo, Alfa Centauri (por ejemplo, Breakthrough Starshot). Para recorrer una distancia de más de 4 años luz, un explorador a este sistema probablemente se enfrentaría a una travesía de más de 60 años. A su llegada, la sonda tendría que operar de forma independiente durante años, incluso décadas, explorando múltiples planetas en el sistema. Las innovaciones actuales en Inteligencia Artificial están abriendo el camino para hacer realidad este tipo de autonomía.

Y eso no es todo. Hay un paso más en la telepresencia en otros planetas que aún es decididamente ciencia ficción, pero que hoy lo es un poco menos, dado que ya se ha colocado la primera piedra de lo que puede ser una tecnología futura casi impensable. Si les intriga saber de qué se trata, vuelvan mañana por aquí.

¿Es creíble el New Space? Dos autores de ciencia ficción opinan

El fundador de SpaceX, Elon Musk, pretende llevar el año próximo a una pareja de pasajeros en un vuelo alredor de la Luna, además de fundar una colonia en Marte en la próxima década. Otras empresas del llamado New Space, del que hablé hace unos días, quieren popularizar los vuelos espaciales, extraer recursos minerales extraterrestres o limpiar la órbita terrestre de la basura espacial acumulada. Pero ¿son creíbles todas estas promesas?

Hay quienes ya han hecho realidad objetivos como estos, aunque solo en las páginas de sus libros. Dicen que el papel lo aguanta todo, pero ciertos autores de ciencia ficción asientan sus obras sobre una formación y experiencia científicas que les convierten en augures privilegiados del futuro que nos espera.

Lo cual no implica que mi pregunta sobre el New Space tenga una respuesta inmediata y única. Prueba de ello es esta muestra de dos autores escogidos a los que he preguntado, y que les traigo hoy: David Brin y B. V. Larson. Ambos, escritores de ciencia ficción y científicos de formación. Brin es, además de ganador de premios como el Hugo y el Nebula (autor, entre otras, de Mensajero del Futuro, llevada al cine por Kevin Costner), astrofísico, asesor de la NASA y consultor futurólogo para varias corporaciones y agencias del gobierno de EEUU. Por su parte, Larson es una presencia habitual en la lista de los más vendidos de ciencia ficción de Amazon, pero además es profesor de ciencias de la  computación y antiguo consultor de DARPA, la agencia de investigación avanzada del Departamento de Defensa de EEUU.

Los escritores David Brin (izquierda) y B. V. Larson (derecha). Imágenes de Wikipedia y YouTube.

Los escritores David Brin (izquierda) y B. V. Larson (derecha). Imágenes de Wikipedia y YouTube.

Ambos sostienen opiniones opuestas sobre el futuro del New Space. Brin considera que la evolución de la aventura espacial desde los gobiernos a los operadores privados es algo natural que ya hemos visto antes en nuestra historia. “El príncipe Enrique el Navegante subvencionó la exploración naval portuguesa, y después las iniciativas privadas tomaron el relevo”, me dice. El autor recuerda otros ejemplos, como la aviación, y pronostica que “estamos entrando en una era en la que 50 años de inversión gubernamental en el espacio por fin van a dejar paso a una actividad motivada por el comercio, la ambición e incluso la diversión”.

Y no solo se trata de un proceso históricamente repetido, opina Brin, sino repetido con éxito. El autor destaca la reutilización de naves y cohetes como un hito conseguido por las compañías del New Space que facilitará enormemente el acceso al espacio en el futuro, aunque “nadie ha dicho que vaya a ser fácil”. Brin reconoce que los más entusiastas están prometiendo demasiado, pero afirma que “el progreso es indiscutible”.

En cambio, más pesimista se muestra Larson. Este autor admite que las promesas del New Space están captando eficazmente la atención de los medios y del público; “pero eso no cambiará los resultados”, añade.

¿Y cuáles serán para Larson estos resultados? “Yo diría que todas las ambiciones del New Space probablemente fracasarán”, sugiere. Como Brin, Larson también basa su argumento en la trayectoria histórica, pero en un sentido diferente. Según este autor, los cambios tecnológicos comienzan con una edad dorada de rápida innovación durante unos 50 años, seguida por un estancamiento que solo puede superarse con un gran nuevo descubrimiento o aplicación capaz de impulsar de nuevo el desarrollo tecnológico. “Hay incontables ejemplos”, sostiene Larson: la aviación avanzó de forma espectacular desde los hermanos Wright en 1903 hasta la aviación comercial. Pero “una vez que los aviones se hicieron comunes en los años 50, el progreso frenó; un avión de pasajeros hoy vuela a la misma velocidad y altitud que hace 50 años”.

Larson cita también el ejemplo de los ordenadores. “¿Qué hemos hecho con ellos en la última década? Los hemos hecho un poco más pequeños, un poco más rápidos, más conectados y más portátiles, pero eso es todo, solo refinamientos; el iPhone debutó en 2007, el portátil en los años 90, y funcionan esencialmente hoy igual que entonces”.

Lo mismo ocurre con los viajes espaciales, prosigue Larson. Desde la carrera espacial de los años 60 no han surgido innovaciones radicales; los propulsores de los cohetes y otros elementos son básicamente similares a como eran entonces. “Estamos estancados en un tiempo de espera”, dice, y solo podremos avanzar a la siguiente casilla, la popularización y el abaratamiento de los vuelos al espacio, con un cambio de enfoque o una nueva motivación económica que nos empuje hacia el espacio. Hasta entonces, “el coste superará al beneficio”, asegura el autor. “Este es el motivo por el que estas ideas sobre el New Space de las que oyes hablar siempre parecen desvanecerse”.

Dos expertos, dos posturas distintas. Pero nadie ha dicho que pronosticar el porvenir sea fácil. Por el momento, solo podemos preparar un bol de palomitas, sentarnos en el sofá y mirar cómo el futuro va pasando por nuestra pantalla.

Old Space vs New Space, la carrera espacial del siglo XXI

Recientemente he escrito para otro medio un artículo sobre lo que ahora llaman New Space, que viene a ser algo así como la liberalización del espacio. No es que existiera ningún oligopolio legal, sino que hasta hace unos años solo las grandes agencias públicas tenían los recursos económicos, técnicos y humanos para actuar como operadores espaciales, mientras que las compañías privadas preferían hacer negocio suministrándoles productos y servicios.

Pero entonces llegaron personajes como Elon Musk (PayPal, Tesla Motors, y ahora SpaceX), Jeff Bezos (Amazon, y ahora Blue Origin) o Richard Branson (Virgin, y ahora Virgin Galactic), junto con otros muchos no tan conocidos. Llegaron con una pregunta: ¿por qué no lo hacemos nosotros? Sin el control público, sin la burocracia, sin las jerarquías interminables, sin miedo al riesgo; con dinero, con ideas nuevas, con nuevos modelos y con ganas. El New Space es a la NASA lo que en su día el Silicon Valley fue para los gigantes como IBM. De hecho, muchas compañías del New Space han surgido en el Silicon Valley.

Ilustración de la nave Dragon 2 de SpaceX. Imagen de SpaceX.

Ilustración de la nave Dragon 2 de SpaceX. Imagen de SpaceX.

Hablo de la NASA, aunque el fenómeno del New Space no es algo ni mucho menos restringido a EEUU. Pero sí lo es su parte más visible, la que se refiere a los viajes espaciales tripulados, dado que la NASA ha sido el único operador del mundo occidental que ha lanzado sus propias naves tripuladas, y el único de todo el mundo que ha enviado humanos más allá de la órbita baja terrestre. Lo cierto es que el New Space no trata solo de mandar gente al espacio: hay empresas que quieren recoger basura orbital o que fotografían la Tierra desde satélites.

Sin embargo, es indudable que todo esto no habría causado tanto revuelo si no fuera porque varias compañías del New Space, que son por ello las más visibles, sí pretenden que las próximas naves tripuladas no lleven una bandera, sino un logotipo corporativo. Y porque quieren llevarlas además adonde las de la bandera no han vuelto desde 1972 (la Luna) o donde no han ido nunca (Marte).

Más allá del tono aséptico que requería el artículo mencionado al principio, lo cierto es que la entrada del New Space ha hecho saltar chispas en el Old Space, es decir, en la NASA. Oficialmente, la agencia pública de EEUU y las nuevas compañías mantienen relaciones comerciales que esperan sean beneficiosas para ambas partes. Pero ya les conté aquí lo que ocurrió cuando Elon Musk, fundador de SpaceX, anunció que se propone llevar el año próximo a una pareja en la luna de miel más literal de la historia, en vuelo alrededor de la Luna, y que lo hará en la cápsula Dragon 2 costeada por la NASA: cuando la agencia felicitó a SpaceX, lo hizo recordándole sus obligaciones contractuales, como un padre estrechando la mano a su nuevo yerno mientras le advierte que ya puede portarse bien con su hija o…

De hecho, el roce entre Old Space y New Space no parece tan bien engrasado como podría pensarse. Todavía colea un episodio que comenzó en febrero, cuando Charles Miller, un miembro del equipo de transición de la NASA nombrado por el gobierno de Donald Trump, escribió un correo en el que parecía alentar una competición entre ambos modelos dentro de la propia agencia, para ver cuál resultaba ganador en una nueva carrera de regreso a la Luna.

El correo de Miller se filtró al diario The Wall Street Journal, y así comenzó el lío, cuando algunos comenzaron a especular que la NASA podría abandonar el desarrollo de sus nuevos cohetes, en los que ya se ha invertido mucho dinero. Esta posibilidad ha sido después desmentida, pero aún no puede decirse que todo vaya sobre ruedas. Como muestra, de las fuentes de la NASA con las que cuento para algunos de mis artículos, ninguna quiso opinar; no sobre el asunto de Miller, sino sobre el New Space en general. “Soy un empleado de la NASA y no se me permite hablar sobre estos asuntos”, me dijo uno de ellos. Otros directamente evitaron responder.

Con independencia de cómo evolucione esta incómoda relación entre ambos modelos espaciales, queda otra gran pregunta muy difícil de responder: ¿lograrán las compañías del New Space cumplir lo que prometen? ¿O algunas de esas promesas (por ejemplo, la de Musk de fundar una colonia en Marte) serán como los vestidos de alta costura de las pasarelas de moda, simples reclamos vistosos para luego vender jerséis?

Los expertos aún no parecen tener muy claro cuál es la respuesta a esta pregunta. Pero aparte de los analistas y tecnólogos, había otra opinión que me interesaba: la de quienes han cumplido estos objetivos en la imaginación, pero lo han hecho sabiendo de lo que hablaban. Es decir, escritores de ciencia ficción que también son o han sido científicos. He consultado a un par de ellos. Mañana les contaré lo que me han dicho.

Ya tenemos chips a prueba de Venus, pero no tenemos misiones a Venus

Venus fue el primer mundo extraterrestre visitado por un artefacto humano. En 1966, tres años antes del primer viaje a la Luna, la sonda soviética Venera 3 se reventó contra las rocas de Venus, si es que quedaba algo aún intacto al llegar a los 460 ºC y las 90 atmósferas de presión de su superficie.

Imaginen lo que sería encontrarse a cuerpo gentil a 900 metros bajo el mar. ¿Pueden? No, yo tampoco; a un par de metros de profundidad en la piscina ya me viene el recuerdo de que los humanos hemos evolucionado en tierra firme. Tampoco podemos imaginar fácilmente lo que es una temperatura ambiente de 460 grados, casi el doble que el máximo en muchos de nuestros hornos; suficiente para fundir el plomo. Por no hablar del ácido sulfúrico atmosférico que nos disolvería como una couldina en un vaso de agua.

Venus es nuestro vecino más próximo y más parecido en algunos aspectos a nuestro planeta, por ejemplo en masa y tamaño. Pero lo fue aún más: los científicos estiman que tuvo océanos y temperaturas habitables tal vez durante sus primeros 2.000 millones de años, hasta que un efecto invernadero catastrófico fue convirtiéndolo en un infierno. Hoy es el planeta más caliente del Sistema Solar, superando a Mercurio.

Estas condiciones extremas son las que hacen de Venus un planeta difícil de explorar a ras de suelo. Aunque han sido varias las sondas que se han posado en su superficie, el récord de funcionamiento de un aparato en aquel ambiente ardiente y opresivo es de 127 minutos, establecido por la también soviética Venera 13 en 1981.

Fotografía tomada en 1981 por la sonda Venera-13 en la superficie de Venus. Imagen de Wikipedia.

Fotografía tomada en 1981 por la sonda Venera-13 en la superficie de Venus. Imagen de Wikipedia.

Todo esto ha relegado a Venus a un segundo plano en el interés del público con respecto a Marte, más accesible a futuras misiones tripuladas. Y sin embargo, el segundo planeta esconde algunas sorpresas en la manga.

Para empezar, su densa atmósfera permitiría que un globo lleno de nuestro aire respirable flotara en el cielo como un corcho en el agua, y precisamente en una franja de altura en la cual la temperatura es similar a la terrestre. Ya se han enviado globos no tripulados allí, pero la NASA tiene un concepto llamado HAVOC (Concepto Operativo a Gran Altitud en Venus) para misiones tripuladas que incluso sería aplicable a una hipotética colonización de la atmósfera de Venus con ciudades flotantes, como la Ciudad de las Nubes de Lando Calrissian en Star Wars.

Pero por supuesto, es solo una idea que no se llevará a la práctica. De hecho, en su última selección de próximas misiones el pasado enero, la NASA dejó fuera a Venus. Actualmente la única misión planificada específicamente venusiana que parece seguir viva es la rusa Venera-D. Un plan europeo que lleva años circulando parece entre dormido y muerto. La NASA aún tiene en reserva una propuesta que pretende enviar un aparato a la superficie de Venus con el propósito de analizar el suelo, pero para conseguir su aprobación deberá competir con otros proyectos menos complicados.

Otro posible tesoro que podría esconder Venus es el rastro de antigua vida, como conté ayer. Los expertos apuntan que la búsqueda de alguna huella no sería tarea fácil, ya que la mayor parte de la superficie del planeta está formada por rocas recientes de origen volcánico que habrían borrado cualquier posible resto de la época más temprana. Sin embargo, los científicos sostienen que tal vez sería posible encontrar rastros de vida pasada encerrados en algunos minerales especialmente resistentes, como el cuarzo o la tremolita.

Circuito integrado de carburo de silicio, antes (arriba) y después (abajo) de probarse en un simulador de Venus. Imagen de NASA.

Circuito integrado de carburo de silicio, antes (arriba) y después (abajo) de probarse en un simulador de Venus. Imagen de NASA.

Pero si buscar este tipo de indicios ya es complicado en nuestro planeta, hacerlo en la superficie de Venus con una sonda robótica es un “más difícil todavía” que parece casi inalcanzable. Aunque hoy lo parece un poco menos. Un equipo de ingenieros del centro de investigación Glenn de la NASA ha fabricado un microchip capaz de funcionar en la superficie de Venus durante semanas, lo que supone aumentar en dos órdenes de magnitud el tiempo operativo conseguido hasta ahora por las sondas allí enviadas.

El secreto es el material: carburo de silicio, mucho más resistente que el silicio normal empleado como semiconductor en los microprocesadores actuales. Los investigadores probaron los chips en una cámara calentada y presurizada que simula las condiciones de Venus, consiguiendo una resistencia récord de 521 horas, unas tres semanas. Este fue el período que los ingenieros tardaron en cansarse de esperar para analizar los resultados; pero cuando sacaron los chips del simulador venusiano, aún funcionaban. Y esto con los componentes desnudos, sin protegerlos en cápsulas herméticas presurizadas como se hizo en las misiones que anteriormente aterrizaron en Venus.

De modo que ya tenemos las herramientas, pero por desgracia aún no tenemos la misión. Hoy es difícil creer que en algún plazo razonable vayamos a solventar la gran incógnita de si Venus fue alguna vez un planeta habitado. Piénsenlo la próxima vez que contemplen esa brillante chispa en la noche: tal vez allí reposen los restos de nuestros antiguos vecinos, pero tal vez nunca lleguemos a saberlo.

Pasen y vean los primeros ‘drones tripulados’ que pronto despegarán

De acuerdo, hablar de un “dron tripulado” es un oxímoron tan monumental como hablar de un bonsái del tamaño de un árbol, dado que precisamente la palabra “dron” hace referencia a un avión no tripulado. Al parecer el término comenzó a emplearse con este uso en 1946, pero ¿a que no adivinan su origen?

Con este uso, porque la palabra ya existía: aunque pueda parecerlo, no es un acrónimo, sino un vocablo común del inglés que designa a las abejas macho encargadas de fecundar a la reina. Nosotros las llamamos zánganos, y queda claro por qué en lugar de traducir el término original simplemente lo hemos españolizado como “dron”. Es un caso similar al de Lobezno, el de los X-Men: wolverine no es una cría de lobo, sino otra especie diferente, un mustélido de nombre científico Gulo gulo que en español se conoce como… glotón.

El vehículo aéreo personal autónomo Ehang 184. Imagen de YouTube.

El vehículo aéreo personal autónomo Ehang 184. Imagen de YouTube.

Pero a lo que iba. Los drones actuales son los que han popularizado la configuración del quadcóptero, el aparato de cuatro hélices horizontales, y este mismo esquema es el que ha adoptado la empresa rusa HoverSurf para su Scorpion-3, un cacharro que sus propios inventores califican como hoverbike, o bici voladora; otro oxímoron, dado que faltan las dos ruedas. HoverSurf ya acepta encargos, aunque de momento no ofrecen detalles sobre fechas y precios. Véanlo en acción, pero debo prevenirles: no esperen nada espectacular. Eso sí; volar, vuela.

La duda sobre cómo llamar a estos artefactos ilustra el hecho de que aún no tenemos palabras estandarizadas para nombrar los vehículos aéreos personales. Naturalmente, porque aún no tenemos vehículos aéreos personales, que llaman PAV por sus siglas en inglés. Y es improbable que lleguemos a tenerlos, pero no será por falta de apuestas. Como he contado aquí en alguna ocasión anterior, son varias las iniciativas que están llevando a la práctica el más clásico de los gadgets retrofuturistas, y varios de ellos ya funcionan.

Incluso la Unión Europea ha financiado algún proyecto destinado a estudiar el concepto. Pero solo el concepto: ¿imaginan cómo sería tratar de regular un tráfico tridimensional que pudiera superar cualquier obstáculo o barrera? ¿Imaginan a algunos adelantando no solo por izquierda y derecha, sino por arriba y abajo? Sería el paraíso de los conductores agresivos.

El más visionario de los millonarios tecnólogos actuales, Elon Musk, que con su marca Tesla promueve los auto-móviles (es decir, los automóviles que lo son realmente), ya se descolgó hace tiempo de la idea del coche volador. En una reciente entrevista en Bloomberg reiteraba que no le parece una buena idea: “Si alguien no mantiene bien su coche volador, podría caerse un tapacubos y guillotinarte”. En su lugar, Musk se decanta por llevar el tráfico a la tercera dimenión, pero no por arriba, sino por abajo, excavando túneles.

Y pese a todo, parece que los primeros PAV van a despegar este mismo año. El gobierno de Dubái pretende lanzar en julio un servicio de taxis aéreos empleando quadcópteros chinos Ehang 184 (en realidad con ocho hélices dispuestas dos a dos). Según el director general de la Autoridad de Carreteras y Tansportes del emirato, Mattar Al-Tayer, viajar en estos coches voladores será “como montar en ascensor”. Los vehículos no los conducirá su único pasajero, sino que serán autónomos; volarán solos hasta el destino programado con ayuda de un centro de control en tierra.

 

 

Cinco razones para regresar a la fotografía analógica

A comienzos de siglo (cómo suena esto…) trabajé durante unos años en periodismo de viajes, una especialidad tan bonita como mal pagada; un autor de guías de EEUU decía que su salario era un poco menos que el de quien ponía las patatas a freír en el McDonald’s. Pero como todo, esto se debe a una simple cuestión de especialización, oferta y demanda: ¿qué periodista, incluso muchos que no lo son, no ha escrito alguna vez un artículo de viajes? No es que el resultado final sea comparable en todos los casos, pero por desgracia la calidad ha sido víctima de la crisis de los medios.

Un ejemplo: en aquella editora de revistas en la que trabajé se contaba con alguien como Javier Reverte, pero solo en calidad de firma invitada; un artículo corto de libre disposición y escrito desde casa podía despacharse con un pago en forma de billetes de avión (no comprados, sino conseguidos mediante intercambio comercial a cambio de publicidad). En cambio, satisfacerle unos honorarios justos por un verdadero reportaje como periodista de viajes habría arruinado la revista. Lo que finalmente ocurrió, pero esa es otra historia.

Voy llegando a donde pretendo: siempre sentí que en aquel caso el periodista, o sea, yo, no era más que un tipo afortunado que cobraba (muy poco, como he dicho) por viajar, al revés que el resto de los mortales. Y que la verdadera estrella era el fotógrafo, al que uno le servía de simple palmero. La premisa, probablemente atinada, era que los lectores eran más bien miradores, y que sobre todo querían ver imágenes deslumbrantes de los destinos a donde les apetecería viajar.

Tuve la suerte entonces de conocer a fotógrafos excepcionales. De ellos pude aprender mucho como simple aficionado, pero solo ellos y ellas eran capaces de mirar donde todos mirábamos y retratarlo como nadie más. Aquella fotografía preciosista que marcaba el estilo de la publicación era un magnífico ejemplo de Ciencias Mixtas: ellos llevaban el arte en su mirada particular sobre el mundo; pero una vez elegidos el motivo y el encuadre, sabían cómo exprimir todo lo que un disparo podía dar de sí gracias a su conocimiento de la óptica.

Por entonces estábamos en plena transición de la foto analógica a la digital, y a menudo los fotógrafos viajaban con los dos formatos al mismo tiempo. Ya se utilizaba el Photoshop, pero allí únicamente se empleaba para cosas como añadir máscaras de enfoque o ajustar la luminosidad de las diapositivas escaneadas. Cuando veías uno de aquellos espectaculares fotones impreso a doble página en la revista, si recuperabas la diapositiva original, encontrabas exactamente lo mismo. No había trampa ni cartón, sino un dominio magistral del comportamiento de aquella criatura con la que trabajaban, la luz.

Imagen de Pexels.com.

Imagen de Pexels.com.

No pretendo decir que todo buen fotógrafo deba saber de ciencia óptica. No soy fotógrafo, así que no puedo saberlo. Y además, supongo que cada uno tiene su interpretación particular. Pero imagino que ocurre con todo: un pintor podrá investigar y explotar más profundamente su arte si conoce la teoría del color, o un músico la teoría musical, o un bailarín la biomecánica. La ciencia aporta al arte, y esta investigación en el arte aporta a la ciencia.

La generalización de la foto digital lo cambió todo, porque ya no existe un original, y ahora puede dispararse pensando desde el principio en lo que luego va a retocarse digitalmente. Es otro tipo de conocimiento al que los fotógrafos han debido adaptarse, pero muchos de ellos no están del todo contentos con el hecho de que una parte fundamental de su trabajo se haga exclusivamente sobre una pantalla.

Imagen de Wikipedia.

Imagen de Wikipedia.

Hace unos días he trabajado en un reportaje sobre la fotografía analógica (aún no publicado), y he descubierto a muchos fotógrafos profesionales y aficionados que están volviendo a la película, o que nunca la abandonaron. Este culto parece estar extendiéndose mucho más allá de los reductos clásicos como el selecto círculo de la lomografía.

El gusto por lo retro es algo que conocemos también en otros ámbitos, como el regreso del vinilo e incluso de la cassette. Y no es cosa de viejos rockeros, sino que muchos jóvenes se han saltado el CD: escuchan música digital en sus teléfonos y iPods, pero en su habitación solo pinchan vinilos (y, dicho sea de paso, así recuperan el gusto por ese viejo arte del disco de diez canciones, con su principio, su fin y su coherencia, frente al demonio de la lista de reproducción).

Quien me dio un panorama más completo de esta resurrección (o no-muerte) de la foto analógica fue Gil Pasternak, del Centro de Investigación en Historia de la Fotografía de la Universidad De Montfort (Reino Unido). Pasternak ha elaborado recientemente un estudio sobre el tema, aún sin publicar, en el que ha indagado en las razones de muchos fotógrafos aficionados, profesionales (sobre todo de bodas) y artistas para ceñirse a la foto analógica.

El resumen del resultado de la investigación de Pasternak, según me cuenta, son estas cinco razones que cito literalmente de sus palabras:

1. Algunos nativos digitales tienden a entrar en la fotografía analógica por el proceso, que consideran como algo mágico e inusual; utilizo el término nativos digitales como referencia a los jóvenes que crecieron con la fotografía digital como estándar, y que por tanto encuentran en la fotografía analógica un proceso experimental excitante.

2. Algunos adolescentes y adultos prefieren la fotografía analógica debido a sus cualidades materiales. Sienten que su implicación física directa en la fotografía confiere un valor añadido a las fotos que toman. En otras palabras, dan un gran significado al proceso de cargar la película en la cámara, sacarla y procesarla, imprimir las copias y sostenerlas. Este proceso de producción a postproducción hace sus fotografías mucho más personales a sus ojos que las imágenes digitales en la pantalla. Así, también consideran las fotografías producidas por medios analógicos como formas de referencia más auténticas a sus experiencias y a las narraciones de su vida que quieren recordar a través de las fotografías que toman.

3. Otro grupo asocia la fotografía analógica con la creatividad. Tienden a pensar que la foto analógica les permite ejercer un mayor control sobre las fotografías y las imágenes porque pueden interferir en el proceso y manipular las imágenes con mayor facilidad. Por ejemplo, mediante el uso de una amplia gama de productos, papel de color con negativos de blanco y negro, y la exposición del papel fotográfico a la luz antes de aplicarle el fijador (que finaliza el proceso neutralizando la sensibilidad del papel a la luz), etcétera.

4. Otros, especialmente los no nativos digitales, tienden a asociar la fotografía analógica con la nostalgia de la memoria, con el recuerdo de un viejo mundo más simple. Regresan a la fotografía analógica para reconectar con sentimientos y emociones que han experimentado en el pasado, cuando miran fotos familiares históricas y de su infancia.

5. Por último, algunos simplemente piensan que las imágenes digitales son demasiado claras, nítidas y transparentes. Perciben que las fotos analógicas, con sus imperfecciones, son representaciones más creíbles de la realidad, sobre todo porque la claridad de las imágenes digitales no les permite definir una distinción clara entre realidad y representación; es decir, entre presente y pasado.

Esta máquina puede funcionar durante 80 años sin apagarse jamás

¿Cuánto les duró su último teléfono móvil? ¿Su último ordenador? ¿Impresora, televisor, coche…? ¿Imaginan una máquina capaz de funcionar de forma continua sin un segundo de descanso durante más de 80 años, sin repuestos, con un mantenimiento sencillo y sin visitas al servicio técnico?

Imagen de Beth Scupham / Flickr / CC.

Imagen de Beth Scupham / Flickr / CC.

Cualquiera que alguna vez se haya sentido víctima de esa rápida obsolescencia –sea realmente programada o no– que sufren casi todas las máquinas presentes en nuestra vida debería balbucir de estupefacción ante la maravilla que guardamos en la jaula de huesos del pecho. Tal vez no suelan pensar en ello, pero su corazón no ha dejado de contraerse y expandirse a un ritmo preciso ni un solo momento en todos los años que han vivido.

Sí, es cierto que en una persona sana el resto de sus órganos también trabajan durante décadas. Pero a diferencia de otros, como el hígado o el riñón, el corazón es una máquina electromecánica, con partes móviles. Y todos los demás órganos dependen de este movimiento: si el corazón se detiene, aunque sea por un ratito, se acabó todo lo demás.

Hace unos tres meses, un análisis publicado en Nature sostenía que hay un límite máximo para la longevidad humana, y que ya lo hemos alcanzado: unos 115 años. Cuidado, no confundir longevidad con esperanza de vida. Esta última se refiere a la posibilidad de evitar la muerte por enfermedad u otro motivo mientras nuestro cuerpo aún podría seguir funcionando.

La longevidad planteada por los autores, de la Facultad de Medicina Albert Einstein de Nueva York, se refiere a la (posible) existencia de un límite biológico intrínseco que no puede romperse. Un cuerpo humano no puede vivir 150 años, del mismo modo que un nuevo récord de los 100 metros lisos arañará alguna centésima a la marca previa, pero un cuerpo humano no puede correr esa distancia en dos segundos (odio las metáforas deportivas, pero viene muy al pelo).

La longevidad máxima propuesta por los autores es un techo que no puede romperse simplemente progresando en la lucha contra la enfermedad y en los estándares de salud. Aunque ellos no lo ponían de este modo, en cierto modo seríamos víctimas de una obsolescencia programada, en nuestro caso genéticamente programada.

El artículo fue controvertido, ya que otros expertos en envejecimiento no están de acuerdo; al contrario que los autores, piensan que es demasiado pronto para fijarnos una fecha de caducidad, y que los avances científicos en este campo pueden ser hoy insospechados. Algunos de los críticos incluso afirmaban que el artículo no alcanzaba la categoría necesaria para haber sido aceptado por la revista Nature.

En el extremo opuesto al de los autores de este artículo se encuentran personajes como Aubrey de Grey, el gerontólogo británico que vive de afirmar que el ser humano alcanzará los mil años, y que el primer milenario del futuro ya está hoy caminando sobre la Tierra.

Ya he expresado antes mi opinión sobre las proclamas de De Grey, así que no voy a insistir en lo mismo, sino solo recordar un hecho inopinable: las Estrategias para la Senescencia Mínima por Ingeniería (SENS, en inglés), como De Grey denomina a su proyecto, aún no han logrado alargar la vida de ningún ser humano o animal. La propuesta de De Grey es actualmente tan indemostrable como irrefutable, lo que la deja en un limbo que muchos identificarían con la seudociencia. De Grey es un científico que no se gana la vida con lo que hace, sino con lo que dice que va a hacer.

La ciencia ficción nos deja imaginar cómo cualquiera de nuestras piezas defectuosas podría reemplazarse por una nueva gracias a la medicina regenerativa, hasta hacernos dudar de cuándo dejamos de ser nosotros mismos. Es la vieja paradoja del barco de Teseo (¿cuándo el barco de Teseo deja de ser el barco de Teseo a medida que se le van reemplazando piezas?), que la ficción ha explorado una y otra vez: en El mago de Oz, el Hombre de Hojalata era originalmente un humano que vio todo su cuerpo sustituido por piezas de metal… y que encontraba a su novia casada con el hombre construido con las partes del cuerpo que él perdió.

Claro que pasar de la ficción a la realidad puede ser no solo difícilmente viable, sino también espantoso; cada cierto tiempo resurge en los medios la historia del neurocirujano italiano que pretende llevar a cabo el primer trasplante de cabeza (o de cuerpo, según se mire), una propuesta increíble que nos recuerda otro hecho increíble, pero cierto: hay empresas de crionización que ofrecen a sus clientes la posibilidad de congelarse… solo la cabeza.

¿A dónde nos lleva todo esto? Tal vez a lo siguiente: antes de tratar de prolongar la vida más allá de lo que actualmente se nos presenta como un límite de longevidad, sea este límite quebrantable o no… ¿no sería más deseable alcanzar el ideal de que la esperanza de vida fuera una esperanza real para todos? Un cuerpo humano de 100 años de edad está esperando a ver cuál de sus órganos vitales es el primero en fallar. En lugar de suspirar por el hombre bicentenario, ¿y si pudiéramos evitar el fallo de un órgano vital cuando todos los demás aún están en perfecto funcionamiento?

Un ejemplo: de los millones de personas que cada año mueren por enfermedad cardiovascular, muchas de ellas sufren parada cardíaca. Otras sufren infartos de miocardio o cerebrales. Pero los infartos, provocados por un bloqueo arterial, pueden conducir también a un paro cardíaco, al cese de esa máquina aparentemente incesante. Estas muertes serían evitables si se pudiera mantener artificialmente el bombeo del corazón, pero lo normal es que la posibilidad de reiniciar esa máquina llegue demasiado tarde, cuando ya el daño en el resto del sistema es irreparable.

Un estudio publicado esta semana en la revista Science Translational Medicine describe una nueva tecnología que está muy cerca de evitar estas muertes. Investigadores de EEUU, Irlanda, Reino Unido y Alemania han creado una especie de funda robótica que envuelve el corazón y lo hace bombear artificialmente, sin perforarlo de ninguna manera ni entrar en contacto con la sangre, a diferencia de otros sistemas ya existentes. La funda está compuesta por músculos artificiales de silicona que se accionan por un sistema de aire comprimido, imitando el latido normal del corazón. Los investigadores lo han probado con corazones de cerdo y en animales vivos, con gran éxito.

Hoy los científicos tratan de reparar con células madre los daños en el corazón provocados por los infartos, lo que puede dar nueva vida al órgano de las personas que han sufrido daños en el músculo cardíaco. Incluso se apunta al objetivo final, aún lejano, de fabricar un corazón completo con células madre. Pero cuando un corazón se detiene, nada de esto sirve de mucho. Donde existe un órgano intacto, aunque incapaz de cumplir su función por sí mismo, una prótesis de bioingeniería como la del nuevo estudio podría permitir que una persona por lo demás sana pueda vivir muchos años más de lo que su corazón le permitiría.

Ya hay otros avances previos en esta misma línea. Naturalmente, desde el laboratorio hasta el hospital hay un larguísimo camino que no admite atajos. Pero este camino es genuinamente el de la ciencia de la prolongación de la vida: lograr que cumplir los 80 no sea un sueño inalcanzable para una gran parte de la humanidad. Lo de llegar a los 150, qué tal si lo dejamos para después. Y en cuanto a los mil años, hoy ni siquiera podemos saber si es ciencia ficción o solo fantasía, pero me vienen a la memoria las palabras de un personaje novelesco llevado al cine que vio pasar los siglos por delante de sus ojos:

To die,

To be really dead,

That must be glorious!

(Conde Drácula / Bela Lugosi)