Archivo de la categoría ‘Tecnología’

Teleinvasión biológica: imprimir seres vivos a distancia en otros mundos

El otro día adelanté que les contaría otra fantasía sobre teleinvasiones, palabra que designa una invasión alienígena a distancia sin que los invasores estén presentes en persona, o en lo que sea, sobre el terreno del planeta invadido.

Como les expliqué, un concepto hoy plausible es el de emplear máquinas teledirigidas; tan plausible que ya se utiliza para nuestras invasiones locales, mediante drones y otros aparatos controlados a distancia. Un paso más allá será recurrir a máquinas inteligentes capaces de tomar sus propias decisiones, no necesariamente más crueles e inhumanas que las de un comandante de carne y hueso, como demuestran las pruebas que es innecesario citar.

Pero imaginen lo siguiente, y explótenlo si les apetece para escribir una historia: la población mundial está siendo exterminada por un extraño y letal patógeno, cuyo análisis revela que no se trata de un microorganismo natural terrestre. Cuando los epidemiólogos rastrean el patrón de propagación en busca del foco inicial, encuentran que no se localiza en una zona densamente poblada, sino muy al contrario, en una región extremadamente remota, desde la cual el patógeno ha podido propagarse por la circulación atmosférica. Cuando una expedición llega al lugar, encuentra un artefacto de procedencia desconocida. Al estudiarlo, los científicos descubren que no es una nave, sino una fábrica automatizada: un sintetizador biológico que ha creado el agente invasor a partir de materias primas moleculares. Los expedicionarios destruyen el aparato, pero ya es demasiado tarde para la humanidad. Mientras, los seres que enviaron la máquina esperan a que se complete la limpieza de su nuevo hogar.

¿Pura fantasía? Hoy sí. Pero sepan que el primer prototipo de una máquina controlable a distancia y capaz de crear un patógeno a partir de componentes moleculares básicos ya existe. Se llama Convertidor de Digital a Biológico (DBC, en inglés), se ha descrito hace pocas semanas en la revista Nature Biotechnology, y se ha utilizado ya para fabricar un virus de la gripe A H1N1 y un virus que infecta a las bacterias llamado ΦX174.

Este es el aspecto del prototipo del DBC. Imagen de Craig Venter et al. / Nature Biotechnology.

Este es el aspecto del prototipo del DBC. Imagen de Craig Venter et al. / Nature Biotechnology.

El autor de este prodigio es el biólogo, empresario y millonario J. Craig Venter, en su día artífice del Proyecto Genoma Humano en su rama privada, y uno de los líderes mundiales en el campo de la biología sintética. Entre sus últimos logros figura, en marzo de 2016, la creación de una bacteria con el genoma artificial mínimo necesario para la vida, que conté aquí.

Venter lleva unos años trabajando en torno a la idea de lo que él mismo llama “teletransporte biológico”, aunque la denominación puede ser engañosa, dado que lo único que se transporta en este caso es la información. El DBC puede recibir a distancia, por internet o radio, una secuencia genética o la secuencia de aminoácidos de una proteína. Después la máquina imprime la molécula utilizando sus componentes básicos. Tampoco “imprimir” es quizá el término más adecuado, pero Venter lo emplea del mismo modo que hoy se usa para hablar de impresión en 3D. En lugar de cartuchos con tinta de colores, el DBC utiliza depósitos con los ladrillos del ADN: adenina (A), guanina (G), timina (T) y citosina (C).

El DBC es todavía un prototipo, una máquina formada por piezas sueltas. Pero funciona, y ya ha sido capaz de imprimir cadenas de ADN y ARN, proteínas y partículas virales. Y naturalmente, más allá del argumento fantástico de la teleinvasión biológica, todo esto tiene un propósito. Pero sobre el ruido de fondo del rasgado de vestiduras de los anticiencia, déjenme hundir una idea hacia el fondo: el primer propósito de la ciencia, y el único necesario para justificarla, es el conocimiento, porque el conocimiento es cultura.

Pero sí, hay aplicaciones prácticas. La idea que inspira la biología sintética es dominar la creación de la vida para obtener beneficios de una manera mejor que la actual, o que simplemente no son alcanzables de otro modo. Los microorganismos sintéticos pueden descontaminar el medio ambiente, fabricar energía o compuestos de interés, como medicamentos, alimentos, productos industriales o vacunas.

Volviendo al DBC, Venter imagina un futuro en el que estas máquinas estarán repartidas por el mundo para fabricar, por ejemplo, vacunas o fármacos. Ante una futura pandemia, y una vez que se logre obtener un remedio, no será necesario transportarlo a todas las zonas afectadas; bastará con transmitir las instrucciones a los DBC, y estos se encargarán de producirlo in situ.

Hasta aquí, tal vez algún lector biólogo replicará que los sintetizadores de oligonucleótidos existen desde hace décadas, aunque necesiten un operador humano para introducir las órdenes. Noten la diferencia, más allá de que antes se hablaba de «sintetizar» y hoy de «imprimir»: el DBC no solo crea cadenas cortas de ADN o ARN, sino genomas sencillos completos y proteínas, y los ensambla en partículas funcionales, todo ello sin que un humano esté presente. Pero el verdadero salto viene de las posibilidades futuras de esta tecnología cuando se conjuga con otros trabajos previos en biología sintética: concretamente, la posibilidad de imprimir microbios con genomas sintéticos diseñados a voluntad.

Venter es un tipo propenso a mirar de lejos que no se ha resistido a fantasear con la futura evolución de esta tecnología. Y uno de sus posibles usos, dice, sería producir microbios en Marte capaces de modificar el entorno para hacerlo más habitable para el ser humano; es lo que se conoce como terraformación, y es una posibilidad que Venter ya ha discutido con otro genio visionario embarcado en el proyecto de fundar una colonia marciana, Elon Musk.

Aquí entramos de nuevo en el terreno de la ciencia ficción, pero en una que no es teóricamente imposible. Venter quiere llegar a obtener una “célula receptora universal”, una bacteria vacía similar a la que él rellenó con un genoma artificial, pero que sea capaz de aceptar cualquier secuencia genética que se le quiera implantar para hacer lo que uno quiera que haga, o… convertirse en lo que uno quiera que se convierta. Incluso, tal vez, en un humano.

Sí, sí, un humano. Esta es la idea lanzada por George Church y Gary Ruvkun, biólogos sintéticos de la Universidad de Harvard. Church, Ruvkun y otros piensan que es ilusorio e inútil tratar de viajar a otras estrellas, y que en su lugar la expansión de la humanidad por el universo se llevará a cabo enviando bacterias cargadas con el genoma humano y utilizándolas después para imprimir humanos en el destino elegido.

Al fin y al cabo, una célula es lo que dice su genoma; una célula A puede transformarse en otra célula B si se le insertan los genes de la célula B. Y así, célula a celula, creciendo, dividiéndose y diferenciándose, una sola célula acaba creando un organismo humano completo. Esto ocurre en cada gestación. Pero también ha ocurrido a lo largo de nuestra evolución desde que éramos bacterias (o arqueas).

De hecho, si podría ocurrir, ¿cómo podemos saber que no ha ocurrido ya? Esta es la idea de Adam Steltzner, ingeniero jefe del rover marciano Curiosity en la NASA. “Puede que sea así como nosotros llegamos aquí”, dice Steltzner. ¿Y si nosotros, todos, la vida en la Tierra, fuéramos el producto de un DBC que alguien trajo aquí hace miles de millones de años?

¿Por qué invadir otro planeta, si se puede ‘teleinvadir’?

Dado que no tengo plan de escribir próximamente ninguna historia de ciencia ficción (mi Tulipanes de Marte era una novela con ciencia ficción, no de ciencia ficción), de vez en cuando dejo caer aquí alguna idea por si a alguien le apetece explorarla.

Tampoco pretendo colgarme ninguna medalla a la originalidad, dado que en general es difícil encontrar algo nuevo bajo el sol, o cualquier otra estrella bajo la cual haya alguien, si es que hay alguien bajo otra estrella. Imagino que ya se habrán escrito historias que no recuerdo o no conozco, y que plantean este enfoque. Pero en general, las ficciones sobre invasiones alienígenas se basan en la presencia física de los invasores en el territorio de los invadidos.

¿Por qué unos alienígenas sumamente avanzados iban a tomarse la molestia, poniendo en riesgo incluso sus propias vidas, de invadir ellos mismos?

Imagen de 'Mars Attacks!' (1996), de Tim Burton. Warner Bros.

Imagen de ‘Mars Attacks!’ (1996), de Tim Burton. Warner Bros.

Futurólogos como Ray Kurzweil pronostican un mañana en que los humanos cargaremos nuestras mentes en máquinas, llámense internet o la nube, y podremos alcanzar la inmortalidad prescindiendo de nuestros cuerpos biológicos. Descontando el hecho de que sería una inmortalidad insoportablemente aburrida, y de que los biólogos nos quedaríamos sin tarea, lo cierto es que hoy son muchos los investigadores en inteligencia artificial que trabajan inspirados por este horizonte. Así que sus razones tendrán.

Imaginemos una civilización que ha alcanzado semejante nivel de desarrollo. ¿No sería lógico que evitaran el riesgo de mancharse las manos (o sus apéndices equivalentes) con una invasión presencial, y que en su lugar teleinvadieran, sirviéndose de máquinas controladas a distancia o capaces de razonar y actuar de forma autónoma?

Una buena razón para ello aparecía ya en la novela que comenzó a popularizar el género en 1897. En La guerra de los mundos de H. G. Wells, los marcianos llegaban a la Tierra a bordo de sus naves, un esquema copiado después una y otra vez. La última versión para el cine, la que dirigió Spielberg en 2005, aportaba una interesante variación: las máquinas de guerra ya estaban presentes en la Tierra desde tiempos antiguos. Pero también en este caso, sus creadores se desplazaban hasta nuestro planeta para pilotarlas.

Como biólogo que era, Wells resolvió la historia con un desenlace científico genial para su época. Aunque el concepto de inmunidad venía circulando desde antiguo, no fue hasta finales del XIX cuando Pasteur y Koch le dieron forma moderna. Wells tiró de esta ciencia entonces innovadora para matar a sus marcianos por una infección de bacterias terrestres, contra las cuales los invasores no estaban inmunizados. La idea era enormemente avanzada en tiempos de Wells, y si hoy parece casi obvia, no olvidemos que prácticamente todas las ficciones actuales sobre alienígenas la pasan por alto (una razón más que hace biológicamente implausibles la mayoría de las películas de ciencia ficción).

Marciano moribundo en 'La guerra de los mundos' (2005). Imagen de Paramount Pictures.

Marciano moribundo en ‘La guerra de los mundos’ (2005). Imagen de Paramount Pictures.

Así, cualquier especie alienígena invasora preferiría evitar riesgos como el de servir de comida a una legión de microbios extraños y agresivos, lo que refuerza la opción de la teleinvasión. Pero hay una limitación para esta idea: la distancia a la que se puede teleinvadir.

Dado que la velocidad máxima de las transmisiones es la de la luz, una teleinvasión en tiempo real obligaría a los alienígenas a acercarse lo más posible a la Tierra. Ya a la distancia de la Luna, una transmisión de ida y vuelta requiere 2,6 segundos, un tiempo de reacción demasiado largo. Probablemente les interesaría mantenerse en una órbita lo suficientemente alejada para evitar una respuesta de la Tierra en forma de misiles.

Y lo mismo que sirve para una invasión alienígena, podría aplicarse a la visita humana a otros mundos. Precisamente esta telepresencia es el motivo de un artículo que hoy publica la revista Science Robotics, y cuyos autores proponen esta estrategia para explorar Marte. Naturalmente, esta ha sido hasta ahora la fórmula utilizada en todas las misiones marcianas. Pero el retraso en las comunicaciones entre la Tierra y su vecino, que oscila entre 5 y 40 minutos según las posiciones de ambos planetas en sus órbitas, impide que los controladores de la misión puedan operar los robots en tiempo real.

Los autores proponen situar un hábitat no en la superficie marciana, sino en la órbita, lo que reduciría los costes de la misión y los riesgos para sus tripulantes. Los astronautas de esta estación espacial marciana podrían controlar al mismo tiempo un gran número de robots en la superficie, que les ofrecerían visión y capacidad de acción inmediatas, casi como si ellos mismos estuvieran pisando Marte. Las posibilidades son casi infinitas, por ejemplo de cara a la ejecución de experimentos biológicos destinados a buscar rastros de vida pasada o presente. Los autores apuntan que ya hay un grupo en el Instituto Keck de Estudios Espaciales dedicado a evaluar la teleexploración de Marte.

Concepto para una exploración de Marte por telepresencia desde un hábitat en órbita. Imagen de NASA.

Concepto para una exploración de Marte por telepresencia desde un hábitat en órbita. Imagen de NASA.

Claro que otra posibilidad, quizá más lejana en el futuro, es que estas máquinas puedan pensar por sí mismas sin necesidad de que nadie las controle a distancia. En el mismo número de Science Robotics se publica otro artículo que evalúa un software inteligente llamado AEGIS, instalado en el rover marciano Curiosity y que le ha permitido seleccionar de forma autónoma las rocas y suelos más interesantes para su estudio, con un 93% de precisión.

Pero esto es solo el principio. En un tercer artículo, dos científicos de la NASA reflexionan sobre cómo las futuras sondas espaciales inteligentes podrán trabajar sin intervención humana para la observación de la Tierra desde el espacio, para la exploración de otros mundos del Sistema Solar e incluso para viajar a otras estrellas. Escriben los investigadores:

El último desafío para los exploradores científicos robóticos sería visitar nuestro sistema solar vecino más próximo, Alfa Centauri (por ejemplo, Breakthrough Starshot). Para recorrer una distancia de más de 4 años luz, un explorador a este sistema probablemente se enfrentaría a una travesía de más de 60 años. A su llegada, la sonda tendría que operar de forma independiente durante años, incluso décadas, explorando múltiples planetas en el sistema. Las innovaciones actuales en Inteligencia Artificial están abriendo el camino para hacer realidad este tipo de autonomía.

Y eso no es todo. Hay un paso más en la telepresencia en otros planetas que aún es decididamente ciencia ficción, pero que hoy lo es un poco menos, dado que ya se ha colocado la primera piedra de lo que puede ser una tecnología futura casi impensable. Si les intriga saber de qué se trata, vuelvan mañana por aquí.

¿Es creíble el New Space? Dos autores de ciencia ficción opinan

El fundador de SpaceX, Elon Musk, pretende llevar el año próximo a una pareja de pasajeros en un vuelo alredor de la Luna, además de fundar una colonia en Marte en la próxima década. Otras empresas del llamado New Space, del que hablé hace unos días, quieren popularizar los vuelos espaciales, extraer recursos minerales extraterrestres o limpiar la órbita terrestre de la basura espacial acumulada. Pero ¿son creíbles todas estas promesas?

Hay quienes ya han hecho realidad objetivos como estos, aunque solo en las páginas de sus libros. Dicen que el papel lo aguanta todo, pero ciertos autores de ciencia ficción asientan sus obras sobre una formación y experiencia científicas que les convierten en augures privilegiados del futuro que nos espera.

Lo cual no implica que mi pregunta sobre el New Space tenga una respuesta inmediata y única. Prueba de ello es esta muestra de dos autores escogidos a los que he preguntado, y que les traigo hoy: David Brin y B. V. Larson. Ambos, escritores de ciencia ficción y científicos de formación. Brin es, además de ganador de premios como el Hugo y el Nebula (autor, entre otras, de Mensajero del Futuro, llevada al cine por Kevin Costner), astrofísico, asesor de la NASA y consultor futurólogo para varias corporaciones y agencias del gobierno de EEUU. Por su parte, Larson es una presencia habitual en la lista de los más vendidos de ciencia ficción de Amazon, pero además es profesor de ciencias de la  computación y antiguo consultor de DARPA, la agencia de investigación avanzada del Departamento de Defensa de EEUU.

Los escritores David Brin (izquierda) y B. V. Larson (derecha). Imágenes de Wikipedia y YouTube.

Los escritores David Brin (izquierda) y B. V. Larson (derecha). Imágenes de Wikipedia y YouTube.

Ambos sostienen opiniones opuestas sobre el futuro del New Space. Brin considera que la evolución de la aventura espacial desde los gobiernos a los operadores privados es algo natural que ya hemos visto antes en nuestra historia. “El príncipe Enrique el Navegante subvencionó la exploración naval portuguesa, y después las iniciativas privadas tomaron el relevo”, me dice. El autor recuerda otros ejemplos, como la aviación, y pronostica que “estamos entrando en una era en la que 50 años de inversión gubernamental en el espacio por fin van a dejar paso a una actividad motivada por el comercio, la ambición e incluso la diversión”.

Y no solo se trata de un proceso históricamente repetido, opina Brin, sino repetido con éxito. El autor destaca la reutilización de naves y cohetes como un hito conseguido por las compañías del New Space que facilitará enormemente el acceso al espacio en el futuro, aunque “nadie ha dicho que vaya a ser fácil”. Brin reconoce que los más entusiastas están prometiendo demasiado, pero afirma que “el progreso es indiscutible”.

En cambio, más pesimista se muestra Larson. Este autor admite que las promesas del New Space están captando eficazmente la atención de los medios y del público; “pero eso no cambiará los resultados”, añade.

¿Y cuáles serán para Larson estos resultados? “Yo diría que todas las ambiciones del New Space probablemente fracasarán”, sugiere. Como Brin, Larson también basa su argumento en la trayectoria histórica, pero en un sentido diferente. Según este autor, los cambios tecnológicos comienzan con una edad dorada de rápida innovación durante unos 50 años, seguida por un estancamiento que solo puede superarse con un gran nuevo descubrimiento o aplicación capaz de impulsar de nuevo el desarrollo tecnológico. “Hay incontables ejemplos”, sostiene Larson: la aviación avanzó de forma espectacular desde los hermanos Wright en 1903 hasta la aviación comercial. Pero “una vez que los aviones se hicieron comunes en los años 50, el progreso frenó; un avión de pasajeros hoy vuela a la misma velocidad y altitud que hace 50 años”.

Larson cita también el ejemplo de los ordenadores. “¿Qué hemos hecho con ellos en la última década? Los hemos hecho un poco más pequeños, un poco más rápidos, más conectados y más portátiles, pero eso es todo, solo refinamientos; el iPhone debutó en 2007, el portátil en los años 90, y funcionan esencialmente hoy igual que entonces”.

Lo mismo ocurre con los viajes espaciales, prosigue Larson. Desde la carrera espacial de los años 60 no han surgido innovaciones radicales; los propulsores de los cohetes y otros elementos son básicamente similares a como eran entonces. “Estamos estancados en un tiempo de espera”, dice, y solo podremos avanzar a la siguiente casilla, la popularización y el abaratamiento de los vuelos al espacio, con un cambio de enfoque o una nueva motivación económica que nos empuje hacia el espacio. Hasta entonces, “el coste superará al beneficio”, asegura el autor. “Este es el motivo por el que estas ideas sobre el New Space de las que oyes hablar siempre parecen desvanecerse”.

Dos expertos, dos posturas distintas. Pero nadie ha dicho que pronosticar el porvenir sea fácil. Por el momento, solo podemos preparar un bol de palomitas, sentarnos en el sofá y mirar cómo el futuro va pasando por nuestra pantalla.

Old Space vs New Space, la carrera espacial del siglo XXI

Recientemente he escrito para otro medio un artículo sobre lo que ahora llaman New Space, que viene a ser algo así como la liberalización del espacio. No es que existiera ningún oligopolio legal, sino que hasta hace unos años solo las grandes agencias públicas tenían los recursos económicos, técnicos y humanos para actuar como operadores espaciales, mientras que las compañías privadas preferían hacer negocio suministrándoles productos y servicios.

Pero entonces llegaron personajes como Elon Musk (PayPal, Tesla Motors, y ahora SpaceX), Jeff Bezos (Amazon, y ahora Blue Origin) o Richard Branson (Virgin, y ahora Virgin Galactic), junto con otros muchos no tan conocidos. Llegaron con una pregunta: ¿por qué no lo hacemos nosotros? Sin el control público, sin la burocracia, sin las jerarquías interminables, sin miedo al riesgo; con dinero, con ideas nuevas, con nuevos modelos y con ganas. El New Space es a la NASA lo que en su día el Silicon Valley fue para los gigantes como IBM. De hecho, muchas compañías del New Space han surgido en el Silicon Valley.

Ilustración de la nave Dragon 2 de SpaceX. Imagen de SpaceX.

Ilustración de la nave Dragon 2 de SpaceX. Imagen de SpaceX.

Hablo de la NASA, aunque el fenómeno del New Space no es algo ni mucho menos restringido a EEUU. Pero sí lo es su parte más visible, la que se refiere a los viajes espaciales tripulados, dado que la NASA ha sido el único operador del mundo occidental que ha lanzado sus propias naves tripuladas, y el único de todo el mundo que ha enviado humanos más allá de la órbita baja terrestre. Lo cierto es que el New Space no trata solo de mandar gente al espacio: hay empresas que quieren recoger basura orbital o que fotografían la Tierra desde satélites.

Sin embargo, es indudable que todo esto no habría causado tanto revuelo si no fuera porque varias compañías del New Space, que son por ello las más visibles, sí pretenden que las próximas naves tripuladas no lleven una bandera, sino un logotipo corporativo. Y porque quieren llevarlas además adonde las de la bandera no han vuelto desde 1972 (la Luna) o donde no han ido nunca (Marte).

Más allá del tono aséptico que requería el artículo mencionado al principio, lo cierto es que la entrada del New Space ha hecho saltar chispas en el Old Space, es decir, en la NASA. Oficialmente, la agencia pública de EEUU y las nuevas compañías mantienen relaciones comerciales que esperan sean beneficiosas para ambas partes. Pero ya les conté aquí lo que ocurrió cuando Elon Musk, fundador de SpaceX, anunció que se propone llevar el año próximo a una pareja en la luna de miel más literal de la historia, en vuelo alrededor de la Luna, y que lo hará en la cápsula Dragon 2 costeada por la NASA: cuando la agencia felicitó a SpaceX, lo hizo recordándole sus obligaciones contractuales, como un padre estrechando la mano a su nuevo yerno mientras le advierte que ya puede portarse bien con su hija o…

De hecho, el roce entre Old Space y New Space no parece tan bien engrasado como podría pensarse. Todavía colea un episodio que comenzó en febrero, cuando Charles Miller, un miembro del equipo de transición de la NASA nombrado por el gobierno de Donald Trump, escribió un correo en el que parecía alentar una competición entre ambos modelos dentro de la propia agencia, para ver cuál resultaba ganador en una nueva carrera de regreso a la Luna.

El correo de Miller se filtró al diario The Wall Street Journal, y así comenzó el lío, cuando algunos comenzaron a especular que la NASA podría abandonar el desarrollo de sus nuevos cohetes, en los que ya se ha invertido mucho dinero. Esta posibilidad ha sido después desmentida, pero aún no puede decirse que todo vaya sobre ruedas. Como muestra, de las fuentes de la NASA con las que cuento para algunos de mis artículos, ninguna quiso opinar; no sobre el asunto de Miller, sino sobre el New Space en general. “Soy un empleado de la NASA y no se me permite hablar sobre estos asuntos”, me dijo uno de ellos. Otros directamente evitaron responder.

Con independencia de cómo evolucione esta incómoda relación entre ambos modelos espaciales, queda otra gran pregunta muy difícil de responder: ¿lograrán las compañías del New Space cumplir lo que prometen? ¿O algunas de esas promesas (por ejemplo, la de Musk de fundar una colonia en Marte) serán como los vestidos de alta costura de las pasarelas de moda, simples reclamos vistosos para luego vender jerséis?

Los expertos aún no parecen tener muy claro cuál es la respuesta a esta pregunta. Pero aparte de los analistas y tecnólogos, había otra opinión que me interesaba: la de quienes han cumplido estos objetivos en la imaginación, pero lo han hecho sabiendo de lo que hablaban. Es decir, escritores de ciencia ficción que también son o han sido científicos. He consultado a un par de ellos. Mañana les contaré lo que me han dicho.

Ciencia semanal: los ‘Homo erectus’ podrían haber tocado el piano

Una ronda rápida de las noticias científicas más destacadas de esta semana que termina.

Pensando como humanos desde hace 1,8 millones de años

¿Desde cuándo los humanos somos humanos? Si pudiéramos de repente introducirnos en la mente de un individuo perteneciente a una especie ancestral de la familia humana, como un australopiteco o un Homo erectus, ¿a partir de cuál de ellos nos reconoceríamos a nosotros mismos como humanos, con nuestra autoconsciencia y nuestra capacidad de raciocinio?

Esta es una de las preguntas más interesantes de la paleoantropología, y también de las más difíciles de responder. Ni siquiera podemos precisar del todo cómo siente y piensa hoy uno de nuestros parientes vivos más próximos, como el bonobo o el chimpancé; ¿cómo hacerlo para una especie que desapareció hace miles de años?

Las nuevas tecnologías y la creatividad de los científicos hoy están logrando adentrarse en terrenos que antes parecían impenetrables. En muchos casos la clave de estos avances está en la interdisciplinariedad, la comunicación entre especialistas de ramas científicas muy diversas, tanto que hasta hace unos años no podría imaginarse para qué los conocimientos de uno podrían servir al otro. Por ejemplo, y como he contado aquí en alguna ocasión, hoy los arqueólogos ya no solo emplean libros y herramientas de campo, sino que aprovechan la capacidad de herramientas físicas avanzadas como los aceleradores de partículas para desentrañar secretos de sus hallazgos que serían inaccesibles por otros medios.

La investigadora de la Universidad de Indiana (EEUU) Shelby Putt es neuroarqueóloga, una especialidad que habría parecido absurda hace unos años, ya que ni el pensamiento ni su sustrato biológico, las neuronas, dejan huellas en el registro fósil. Pero Putt ha ideado un precioso experimento para tratar de entender cómo nuestros parientes ancestrales se parecían a nosotros en sus capacidades mentales.

La neuroarqueóloga de la Universidad de Indiana Shelby Putt. Imagen de U of Iowa.

La neuroarqueóloga de la Universidad de Indiana Shelby Putt. Imagen de U of Iowa.

Putt y sus colaboradores pusieron a un grupo de voluntarios a fabricar herramientas de piedra como lo hacían los antiguos homininos en dos etapas distintas de la evolución: según la industria olduvayense, que comenzó a utilizarse hace 2,6 millones de años, o la achelense, más avanzada, cuyos primeros restos se remontan a hace 1,8 millones de años con el Homo erectus, y que se han fabricado hasta hace unos 100.000 años. Mientras los voluntarios se dedicaban a esta artesanía prehistórica, se registraba su actividad cerebral mediante una técnica avanzada no invasiva llamada espectroscopía funcional de infrarrojo cercano.

Los resultados, publicados en Nature Human Behaviour, muestran que la fabricación de las herramientas olduvayenses, más primitivas, solo requiere la actividad de regiones cerebrales implicadas en la atención visual y el control motor. Por el contrario, las achelenses activan una parte del cerebro mucho mayor, incluyendo áreas de alto nivel intelectual implicadas en la planificación. “Sorprendentemente, estas partes del cerebro son las mismas implicadas en actividades modernas como tocar el piano”, dice Putt. El estudio concluye: “La fabricación de herramientas achelenses puede tener más vínculos evolutivos con interpretar a Mozart que con citar a Shakespeare”.

Los superbichos son anteriores a los dinosaurios

Las bacterias multirresistentes, inmunes a todos los antibióticos conocidos, son hoy una de las mayores preocupaciones de epidemiólogos y especialistas en salud pública. Conocidos coloquialmente como superbichos (superbugs en inglés), estos microbios suelen anidar en los hospitales y en numerosas ocasiones provocan la muerte de pacientes ingresados por otras causas. Algunos expertos llegan incluso a dibujar un futuro atemorizador, en el que nuestros antibióticos actuales serán del todo inservibles y regresaremos a la época en que no teníamos herramientas para combatir las infecciones bacterianas.

Un nuevo estudio dirigido por Michael Gilmore, de la Facultad de Medicina de Harvard (EEUU), y publicado en la revista Cell, ha rastreado los orígenes evolutivos de un tipo de superbichos, los enterococos. Los resultados son sorprendentes: el origen de estos seres se remonta a hace 450 millones de años, en una época anterior a los dinosaurios, cuando los primeros animales estaban saliendo del agua para colonizar el medio terrestre.

Imagen de Mark Witton.

Imagen de Mark Witton.

Según los investigadores, cuando aquellos animales comenzaron a abandonar el medio acuático, llevaron con ellos los ancestros de los enterococos, y aquel cambio de hábitat fue seleccionando los genes necesarios para hacerlos resistentes a la desecación, a la falta de nutrientes y a las sustancias antimicrobianas, en lo cual está el origen de su extraordinaria resistencia a todo tipo de agresiones del medio externo. Cuatrocientos cincuenta millones de años después, es evidente que su estrategia evolutiva ha sido todo un éxito para ellos, y una seria amenaza para nosotros.

Un médico pronosticó el ciberataque

El premio al profeta de la semana se lo lleva Krishna Chinthapalli, neurólogo del Hospital Nacional de Neurología y Neurocirugía de Londres. El pasado miércoles, Chinthapalli recordaba en la revista British Medical Journal un reciente ciberataque a un hospital de Los Ángeles en el que se utilizó un virus de ransomware, que obliga a los atacados a pagar un rescate para recuperar el control de sus sistemas informáticos. El neurólogo escribía: «Deberíamos estar preparados: casi con seguridad este año más hospitales sufrirán ataques de ransomware«. Solo dos días después, un ataque con el ransomware WannaCry secuestraba el sistema británico de salud pública, entre otras muchas instituciones de varios países.

La Nebulosa del Cangrejo, vista como nunca

Les dejo con esta nueva y espectacular imagen de la Nebulosa del Cangrejo, publicada esta semana. La nebulosa es el resto de la violenta explosión de una supernova que pudo verse en el cielo en el año 1054 de nuestra era. Esta nueva imagen se ha construido superponiendo capturas en todo el espectro de luz tomadas por cinco instrumentos astronómicos: ondas de radio en rojo por el VLA, infrarrojo en amarillo por el telescopio espacial Spitzer, luz visible en verde por el Hubble, ultravioleta en azul por el XMM-Newton y rayos X en morado por el Chandra.

Nueva imagen de la Nebulosa del Cangrejo. Imagen de NASA, ESA, G. Dubner (IAFE, CONICET-University of Buenos Aires) et al.; A. Loll et al.; T. Temim et al.; F. Seward et al.; VLA/NRAO/AUI/NSF; Chandra/CXC; Spitzer/JPL-Caltech; XMM-Newton/ESA; y Hubble/STScI.

Nueva imagen de la Nebulosa del Cangrejo. Imagen de NASA, ESA, G. Dubner (IAFE, CONICET-University of Buenos Aires) et al.; A. Loll et al.; T. Temim et al.; F. Seward et al.; VLA/NRAO/AUI/NSF; Chandra/CXC; Spitzer/JPL-Caltech; XMM-Newton/ESA; y Hubble/STScI.

Ya tenemos chips a prueba de Venus, pero no tenemos misiones a Venus

Venus fue el primer mundo extraterrestre visitado por un artefacto humano. En 1966, tres años antes del primer viaje a la Luna, la sonda soviética Venera 3 se reventó contra las rocas de Venus, si es que quedaba algo aún intacto al llegar a los 460 ºC y las 90 atmósferas de presión de su superficie.

Imaginen lo que sería encontrarse a cuerpo gentil a 900 metros bajo el mar. ¿Pueden? No, yo tampoco; a un par de metros de profundidad en la piscina ya me viene el recuerdo de que los humanos hemos evolucionado en tierra firme. Tampoco podemos imaginar fácilmente lo que es una temperatura ambiente de 460 grados, casi el doble que el máximo en muchos de nuestros hornos; suficiente para fundir el plomo. Por no hablar del ácido sulfúrico atmosférico que nos disolvería como una couldina en un vaso de agua.

Venus es nuestro vecino más próximo y más parecido en algunos aspectos a nuestro planeta, por ejemplo en masa y tamaño. Pero lo fue aún más: los científicos estiman que tuvo océanos y temperaturas habitables tal vez durante sus primeros 2.000 millones de años, hasta que un efecto invernadero catastrófico fue convirtiéndolo en un infierno. Hoy es el planeta más caliente del Sistema Solar, superando a Mercurio.

Estas condiciones extremas son las que hacen de Venus un planeta difícil de explorar a ras de suelo. Aunque han sido varias las sondas que se han posado en su superficie, el récord de funcionamiento de un aparato en aquel ambiente ardiente y opresivo es de 127 minutos, establecido por la también soviética Venera 13 en 1981.

Fotografía tomada en 1981 por la sonda Venera-13 en la superficie de Venus. Imagen de Wikipedia.

Fotografía tomada en 1981 por la sonda Venera-13 en la superficie de Venus. Imagen de Wikipedia.

Todo esto ha relegado a Venus a un segundo plano en el interés del público con respecto a Marte, más accesible a futuras misiones tripuladas. Y sin embargo, el segundo planeta esconde algunas sorpresas en la manga.

Para empezar, su densa atmósfera permitiría que un globo lleno de nuestro aire respirable flotara en el cielo como un corcho en el agua, y precisamente en una franja de altura en la cual la temperatura es similar a la terrestre. Ya se han enviado globos no tripulados allí, pero la NASA tiene un concepto llamado HAVOC (Concepto Operativo a Gran Altitud en Venus) para misiones tripuladas que incluso sería aplicable a una hipotética colonización de la atmósfera de Venus con ciudades flotantes, como la Ciudad de las Nubes de Lando Calrissian en Star Wars.

Pero por supuesto, es solo una idea que no se llevará a la práctica. De hecho, en su última selección de próximas misiones el pasado enero, la NASA dejó fuera a Venus. Actualmente la única misión planificada específicamente venusiana que parece seguir viva es la rusa Venera-D. Un plan europeo que lleva años circulando parece entre dormido y muerto. La NASA aún tiene en reserva una propuesta que pretende enviar un aparato a la superficie de Venus con el propósito de analizar el suelo, pero para conseguir su aprobación deberá competir con otros proyectos menos complicados.

Otro posible tesoro que podría esconder Venus es el rastro de antigua vida, como conté ayer. Los expertos apuntan que la búsqueda de alguna huella no sería tarea fácil, ya que la mayor parte de la superficie del planeta está formada por rocas recientes de origen volcánico que habrían borrado cualquier posible resto de la época más temprana. Sin embargo, los científicos sostienen que tal vez sería posible encontrar rastros de vida pasada encerrados en algunos minerales especialmente resistentes, como el cuarzo o la tremolita.

Circuito integrado de carburo de silicio, antes (arriba) y después (abajo) de probarse en un simulador de Venus. Imagen de NASA.

Circuito integrado de carburo de silicio, antes (arriba) y después (abajo) de probarse en un simulador de Venus. Imagen de NASA.

Pero si buscar este tipo de indicios ya es complicado en nuestro planeta, hacerlo en la superficie de Venus con una sonda robótica es un «más difícil todavía» que parece casi inalcanzable. Aunque hoy lo parece un poco menos. Un equipo de ingenieros del centro de investigación Glenn de la NASA ha fabricado un microchip capaz de funcionar en la superficie de Venus durante semanas, lo que supone aumentar en dos órdenes de magnitud el tiempo operativo conseguido hasta ahora por las sondas allí enviadas.

El secreto es el material: carburo de silicio, mucho más resistente que el silicio normal empleado como semiconductor en los microprocesadores actuales. Los investigadores probaron los chips en una cámara calentada y presurizada que simula las condiciones de Venus, consiguiendo una resistencia récord de 521 horas, unas tres semanas. Este fue el período que los ingenieros tardaron en cansarse de esperar para analizar los resultados; pero cuando sacaron los chips del simulador venusiano, aún funcionaban. Y esto con los componentes desnudos, sin protegerlos en cápsulas herméticas presurizadas como se hizo en las misiones que anteriormente aterrizaron en Venus.

De modo que ya tenemos las herramientas, pero por desgracia aún no tenemos la misión. Hoy es difícil creer que en algún plazo razonable vayamos a solventar la gran incógnita de si Venus fue alguna vez un planeta habitado. Piénsenlo la próxima vez que contemplen esa brillante chispa en la noche: tal vez allí reposen los restos de nuestros antiguos vecinos, pero tal vez nunca lleguemos a saberlo.

Pasen y vean los primeros ‘drones tripulados’ que pronto despegarán

De acuerdo, hablar de un «dron tripulado» es un oxímoron tan monumental como hablar de un bonsái del tamaño de un árbol, dado que precisamente la palabra «dron» hace referencia a un avión no tripulado. Al parecer el término comenzó a emplearse con este uso en 1946, pero ¿a que no adivinan su origen?

Con este uso, porque la palabra ya existía: aunque pueda parecerlo, no es un acrónimo, sino un vocablo común del inglés que designa a las abejas macho encargadas de fecundar a la reina. Nosotros las llamamos zánganos, y queda claro por qué en lugar de traducir el término original simplemente lo hemos españolizado como «dron». Es un caso similar al de Lobezno, el de los X-Men: wolverine no es una cría de lobo, sino otra especie diferente, un mustélido de nombre científico Gulo gulo que en español se conoce como… glotón.

El vehículo aéreo personal autónomo Ehang 184. Imagen de YouTube.

El vehículo aéreo personal autónomo Ehang 184. Imagen de YouTube.

Pero a lo que iba. Los drones actuales son los que han popularizado la configuración del quadcóptero, el aparato de cuatro hélices horizontales, y este mismo esquema es el que ha adoptado la empresa rusa HoverSurf para su Scorpion-3, un cacharro que sus propios inventores califican como hoverbike, o bici voladora; otro oxímoron, dado que faltan las dos ruedas. HoverSurf ya acepta encargos, aunque de momento no ofrecen detalles sobre fechas y precios. Véanlo en acción, pero debo prevenirles: no esperen nada espectacular. Eso sí; volar, vuela.

La duda sobre cómo llamar a estos artefactos ilustra el hecho de que aún no tenemos palabras estandarizadas para nombrar los vehículos aéreos personales. Naturalmente, porque aún no tenemos vehículos aéreos personales, que llaman PAV por sus siglas en inglés. Y es improbable que lleguemos a tenerlos, pero no será por falta de apuestas. Como he contado aquí en alguna ocasión anterior, son varias las iniciativas que están llevando a la práctica el más clásico de los gadgets retrofuturistas, y varios de ellos ya funcionan.

Incluso la Unión Europea ha financiado algún proyecto destinado a estudiar el concepto. Pero solo el concepto: ¿imaginan cómo sería tratar de regular un tráfico tridimensional que pudiera superar cualquier obstáculo o barrera? ¿Imaginan a algunos adelantando no solo por izquierda y derecha, sino por arriba y abajo? Sería el paraíso de los conductores agresivos.

El más visionario de los millonarios tecnólogos actuales, Elon Musk, que con su marca Tesla promueve los auto-móviles (es decir, los automóviles que lo son realmente), ya se descolgó hace tiempo de la idea del coche volador. En una reciente entrevista en Bloomberg reiteraba que no le parece una buena idea: «Si alguien no mantiene bien su coche volador, podría caerse un tapacubos y guillotinarte». En su lugar, Musk se decanta por llevar el tráfico a la tercera dimenión, pero no por arriba, sino por abajo, excavando túneles.

Y pese a todo, parece que los primeros PAV van a despegar este mismo año. El gobierno de Dubái pretende lanzar en julio un servicio de taxis aéreos empleando quadcópteros chinos Ehang 184 (en realidad con ocho hélices dispuestas dos a dos). Según el director general de la Autoridad de Carreteras y Tansportes del emirato, Mattar Al-Tayer, viajar en estos coches voladores será «como montar en ascensor». Los vehículos no los conducirá su único pasajero, sino que serán autónomos; volarán solos hasta el destino programado con ayuda de un centro de control en tierra.

 

 

Cinco razones para regresar a la fotografía analógica

A comienzos de siglo (cómo suena esto…) trabajé durante unos años en periodismo de viajes, una especialidad tan bonita como mal pagada; un autor de guías de EEUU decía que su salario era un poco menos que el de quien ponía las patatas a freír en el McDonald’s. Pero como todo, esto se debe a una simple cuestión de especialización, oferta y demanda: ¿qué periodista, incluso muchos que no lo son, no ha escrito alguna vez un artículo de viajes? No es que el resultado final sea comparable en todos los casos, pero por desgracia la calidad ha sido víctima de la crisis de los medios.

Un ejemplo: en aquella editora de revistas en la que trabajé se contaba con alguien como Javier Reverte, pero solo en calidad de firma invitada; un artículo corto de libre disposición y escrito desde casa podía despacharse con un pago en forma de billetes de avión (no comprados, sino conseguidos mediante intercambio comercial a cambio de publicidad). En cambio, satisfacerle unos honorarios justos por un verdadero reportaje como periodista de viajes habría arruinado la revista. Lo que finalmente ocurrió, pero esa es otra historia.

Voy llegando a donde pretendo: siempre sentí que en aquel caso el periodista, o sea, yo, no era más que un tipo afortunado que cobraba (muy poco, como he dicho) por viajar, al revés que el resto de los mortales. Y que la verdadera estrella era el fotógrafo, al que uno le servía de simple palmero. La premisa, probablemente atinada, era que los lectores eran más bien miradores, y que sobre todo querían ver imágenes deslumbrantes de los destinos a donde les apetecería viajar.

Tuve la suerte entonces de conocer a fotógrafos excepcionales. De ellos pude aprender mucho como simple aficionado, pero solo ellos y ellas eran capaces de mirar donde todos mirábamos y retratarlo como nadie más. Aquella fotografía preciosista que marcaba el estilo de la publicación era un magnífico ejemplo de Ciencias Mixtas: ellos llevaban el arte en su mirada particular sobre el mundo; pero una vez elegidos el motivo y el encuadre, sabían cómo exprimir todo lo que un disparo podía dar de sí gracias a su conocimiento de la óptica.

Por entonces estábamos en plena transición de la foto analógica a la digital, y a menudo los fotógrafos viajaban con los dos formatos al mismo tiempo. Ya se utilizaba el Photoshop, pero allí únicamente se empleaba para cosas como añadir máscaras de enfoque o ajustar la luminosidad de las diapositivas escaneadas. Cuando veías uno de aquellos espectaculares fotones impreso a doble página en la revista, si recuperabas la diapositiva original, encontrabas exactamente lo mismo. No había trampa ni cartón, sino un dominio magistral del comportamiento de aquella criatura con la que trabajaban, la luz.

Imagen de Pexels.com.

Imagen de Pexels.com.

No pretendo decir que todo buen fotógrafo deba saber de ciencia óptica. No soy fotógrafo, así que no puedo saberlo. Y además, supongo que cada uno tiene su interpretación particular. Pero imagino que ocurre con todo: un pintor podrá investigar y explotar más profundamente su arte si conoce la teoría del color, o un músico la teoría musical, o un bailarín la biomecánica. La ciencia aporta al arte, y esta investigación en el arte aporta a la ciencia.

La generalización de la foto digital lo cambió todo, porque ya no existe un original, y ahora puede dispararse pensando desde el principio en lo que luego va a retocarse digitalmente. Es otro tipo de conocimiento al que los fotógrafos han debido adaptarse, pero muchos de ellos no están del todo contentos con el hecho de que una parte fundamental de su trabajo se haga exclusivamente sobre una pantalla.

Imagen de Wikipedia.

Imagen de Wikipedia.

Hace unos días he trabajado en un reportaje sobre la fotografía analógica (aún no publicado), y he descubierto a muchos fotógrafos profesionales y aficionados que están volviendo a la película, o que nunca la abandonaron. Este culto parece estar extendiéndose mucho más allá de los reductos clásicos como el selecto círculo de la lomografía.

El gusto por lo retro es algo que conocemos también en otros ámbitos, como el regreso del vinilo e incluso de la cassette. Y no es cosa de viejos rockeros, sino que muchos jóvenes se han saltado el CD: escuchan música digital en sus teléfonos y iPods, pero en su habitación solo pinchan vinilos (y, dicho sea de paso, así recuperan el gusto por ese viejo arte del disco de diez canciones, con su principio, su fin y su coherencia, frente al demonio de la lista de reproducción).

Quien me dio un panorama más completo de esta resurrección (o no-muerte) de la foto analógica fue Gil Pasternak, del Centro de Investigación en Historia de la Fotografía de la Universidad De Montfort (Reino Unido). Pasternak ha elaborado recientemente un estudio sobre el tema, aún sin publicar, en el que ha indagado en las razones de muchos fotógrafos aficionados, profesionales (sobre todo de bodas) y artistas para ceñirse a la foto analógica.

El resumen del resultado de la investigación de Pasternak, según me cuenta, son estas cinco razones que cito literalmente de sus palabras:

1. Algunos nativos digitales tienden a entrar en la fotografía analógica por el proceso, que consideran como algo mágico e inusual; utilizo el término nativos digitales como referencia a los jóvenes que crecieron con la fotografía digital como estándar, y que por tanto encuentran en la fotografía analógica un proceso experimental excitante.

2. Algunos adolescentes y adultos prefieren la fotografía analógica debido a sus cualidades materiales. Sienten que su implicación física directa en la fotografía confiere un valor añadido a las fotos que toman. En otras palabras, dan un gran significado al proceso de cargar la película en la cámara, sacarla y procesarla, imprimir las copias y sostenerlas. Este proceso de producción a postproducción hace sus fotografías mucho más personales a sus ojos que las imágenes digitales en la pantalla. Así, también consideran las fotografías producidas por medios analógicos como formas de referencia más auténticas a sus experiencias y a las narraciones de su vida que quieren recordar a través de las fotografías que toman.

3. Otro grupo asocia la fotografía analógica con la creatividad. Tienden a pensar que la foto analógica les permite ejercer un mayor control sobre las fotografías y las imágenes porque pueden interferir en el proceso y manipular las imágenes con mayor facilidad. Por ejemplo, mediante el uso de una amplia gama de productos, papel de color con negativos de blanco y negro, y la exposición del papel fotográfico a la luz antes de aplicarle el fijador (que finaliza el proceso neutralizando la sensibilidad del papel a la luz), etcétera.

4. Otros, especialmente los no nativos digitales, tienden a asociar la fotografía analógica con la nostalgia de la memoria, con el recuerdo de un viejo mundo más simple. Regresan a la fotografía analógica para reconectar con sentimientos y emociones que han experimentado en el pasado, cuando miran fotos familiares históricas y de su infancia.

5. Por último, algunos simplemente piensan que las imágenes digitales son demasiado claras, nítidas y transparentes. Perciben que las fotos analógicas, con sus imperfecciones, son representaciones más creíbles de la realidad, sobre todo porque la claridad de las imágenes digitales no les permite definir una distinción clara entre realidad y representación; es decir, entre presente y pasado.

Esta máquina puede funcionar durante 80 años sin apagarse jamás

¿Cuánto les duró su último teléfono móvil? ¿Su último ordenador? ¿Impresora, televisor, coche…? ¿Imaginan una máquina capaz de funcionar de forma continua sin un segundo de descanso durante más de 80 años, sin repuestos, con un mantenimiento sencillo y sin visitas al servicio técnico?

Imagen de Beth Scupham / Flickr / CC.

Imagen de Beth Scupham / Flickr / CC.

Cualquiera que alguna vez se haya sentido víctima de esa rápida obsolescencia –sea realmente programada o no– que sufren casi todas las máquinas presentes en nuestra vida debería balbucir de estupefacción ante la maravilla que guardamos en la jaula de huesos del pecho. Tal vez no suelan pensar en ello, pero su corazón no ha dejado de contraerse y expandirse a un ritmo preciso ni un solo momento en todos los años que han vivido.

Sí, es cierto que en una persona sana el resto de sus órganos también trabajan durante décadas. Pero a diferencia de otros, como el hígado o el riñón, el corazón es una máquina electromecánica, con partes móviles. Y todos los demás órganos dependen de este movimiento: si el corazón se detiene, aunque sea por un ratito, se acabó todo lo demás.

Hace unos tres meses, un análisis publicado en Nature sostenía que hay un límite máximo para la longevidad humana, y que ya lo hemos alcanzado: unos 115 años. Cuidado, no confundir longevidad con esperanza de vida. Esta última se refiere a la posibilidad de evitar la muerte por enfermedad u otro motivo mientras nuestro cuerpo aún podría seguir funcionando.

La longevidad planteada por los autores, de la Facultad de Medicina Albert Einstein de Nueva York, se refiere a la (posible) existencia de un límite biológico intrínseco que no puede romperse. Un cuerpo humano no puede vivir 150 años, del mismo modo que un nuevo récord de los 100 metros lisos arañará alguna centésima a la marca previa, pero un cuerpo humano no puede correr esa distancia en dos segundos (odio las metáforas deportivas, pero viene muy al pelo).

La longevidad máxima propuesta por los autores es un techo que no puede romperse simplemente progresando en la lucha contra la enfermedad y en los estándares de salud. Aunque ellos no lo ponían de este modo, en cierto modo seríamos víctimas de una obsolescencia programada, en nuestro caso genéticamente programada.

El artículo fue controvertido, ya que otros expertos en envejecimiento no están de acuerdo; al contrario que los autores, piensan que es demasiado pronto para fijarnos una fecha de caducidad, y que los avances científicos en este campo pueden ser hoy insospechados. Algunos de los críticos incluso afirmaban que el artículo no alcanzaba la categoría necesaria para haber sido aceptado por la revista Nature.

En el extremo opuesto al de los autores de este artículo se encuentran personajes como Aubrey de Grey, el gerontólogo británico que vive de afirmar que el ser humano alcanzará los mil años, y que el primer milenario del futuro ya está hoy caminando sobre la Tierra.

Ya he expresado antes mi opinión sobre las proclamas de De Grey, así que no voy a insistir en lo mismo, sino solo recordar un hecho inopinable: las Estrategias para la Senescencia Mínima por Ingeniería (SENS, en inglés), como De Grey denomina a su proyecto, aún no han logrado alargar la vida de ningún ser humano o animal. La propuesta de De Grey es actualmente tan indemostrable como irrefutable, lo que la deja en un limbo que muchos identificarían con la seudociencia. De Grey es un científico que no se gana la vida con lo que hace, sino con lo que dice que va a hacer.

La ciencia ficción nos deja imaginar cómo cualquiera de nuestras piezas defectuosas podría reemplazarse por una nueva gracias a la medicina regenerativa, hasta hacernos dudar de cuándo dejamos de ser nosotros mismos. Es la vieja paradoja del barco de Teseo (¿cuándo el barco de Teseo deja de ser el barco de Teseo a medida que se le van reemplazando piezas?), que la ficción ha explorado una y otra vez: en El mago de Oz, el Hombre de Hojalata era originalmente un humano que vio todo su cuerpo sustituido por piezas de metal… y que encontraba a su novia casada con el hombre construido con las partes del cuerpo que él perdió.

Claro que pasar de la ficción a la realidad puede ser no solo difícilmente viable, sino también espantoso; cada cierto tiempo resurge en los medios la historia del neurocirujano italiano que pretende llevar a cabo el primer trasplante de cabeza (o de cuerpo, según se mire), una propuesta increíble que nos recuerda otro hecho increíble, pero cierto: hay empresas de crionización que ofrecen a sus clientes la posibilidad de congelarse… solo la cabeza.

¿A dónde nos lleva todo esto? Tal vez a lo siguiente: antes de tratar de prolongar la vida más allá de lo que actualmente se nos presenta como un límite de longevidad, sea este límite quebrantable o no… ¿no sería más deseable alcanzar el ideal de que la esperanza de vida fuera una esperanza real para todos? Un cuerpo humano de 100 años de edad está esperando a ver cuál de sus órganos vitales es el primero en fallar. En lugar de suspirar por el hombre bicentenario, ¿y si pudiéramos evitar el fallo de un órgano vital cuando todos los demás aún están en perfecto funcionamiento?

Un ejemplo: de los millones de personas que cada año mueren por enfermedad cardiovascular, muchas de ellas sufren parada cardíaca. Otras sufren infartos de miocardio o cerebrales. Pero los infartos, provocados por un bloqueo arterial, pueden conducir también a un paro cardíaco, al cese de esa máquina aparentemente incesante. Estas muertes serían evitables si se pudiera mantener artificialmente el bombeo del corazón, pero lo normal es que la posibilidad de reiniciar esa máquina llegue demasiado tarde, cuando ya el daño en el resto del sistema es irreparable.

Un estudio publicado esta semana en la revista Science Translational Medicine describe una nueva tecnología que está muy cerca de evitar estas muertes. Investigadores de EEUU, Irlanda, Reino Unido y Alemania han creado una especie de funda robótica que envuelve el corazón y lo hace bombear artificialmente, sin perforarlo de ninguna manera ni entrar en contacto con la sangre, a diferencia de otros sistemas ya existentes. La funda está compuesta por músculos artificiales de silicona que se accionan por un sistema de aire comprimido, imitando el latido normal del corazón. Los investigadores lo han probado con corazones de cerdo y en animales vivos, con gran éxito.

Hoy los científicos tratan de reparar con células madre los daños en el corazón provocados por los infartos, lo que puede dar nueva vida al órgano de las personas que han sufrido daños en el músculo cardíaco. Incluso se apunta al objetivo final, aún lejano, de fabricar un corazón completo con células madre. Pero cuando un corazón se detiene, nada de esto sirve de mucho. Donde existe un órgano intacto, aunque incapaz de cumplir su función por sí mismo, una prótesis de bioingeniería como la del nuevo estudio podría permitir que una persona por lo demás sana pueda vivir muchos años más de lo que su corazón le permitiría.

Ya hay otros avances previos en esta misma línea. Naturalmente, desde el laboratorio hasta el hospital hay un larguísimo camino que no admite atajos. Pero este camino es genuinamente el de la ciencia de la prolongación de la vida: lograr que cumplir los 80 no sea un sueño inalcanzable para una gran parte de la humanidad. Lo de llegar a los 150, qué tal si lo dejamos para después. Y en cuanto a los mil años, hoy ni siquiera podemos saber si es ciencia ficción o solo fantasía, pero me vienen a la memoria las palabras de un personaje novelesco llevado al cine que vio pasar los siglos por delante de sus ojos:

To die,

To be really dead,

That must be glorious!

(Conde Drácula / Bela Lugosi)

Haga sus propios copos de nieve, e ilumine su árbol con peces eléctricos

Ya que el anticiclón no parece dispuesto a soltarnos y a falta de Navidades blancas, ¿qué tal aprovechar las vacaciones para fabricar sus propios copos de nieve en casa?

Copo de nieve fotografiado al microscopio. Imagen de Kenneth Libbrecht.

Copo de nieve fotografiado al microscopio. Imagen de Kenneth Libbrecht.

El físico de Caltech (EEUU) Kenneth G. Libbrecht es probablemente el mayor experto mundial en cristales de hielo: los crea, los estudia y los fotografía para comprender cómo se forman y en qué medida sus simétricas formas caprichosas dependen de factores como el grado de humedad, la presión o las variaciones sutiles de temperatura. Sus hermosas imágenes están libres de Photoshop; son fotomicrografías reales de copos sabiamente iluminados para que la luz se descomponga en los colores del arco iris.

Y por cierto, hasta tal punto las condiciones de crecimiento del cristal determinan su forma que Libbrecht ha desmontado el viejo mito según el cual no existen dos copos de nieve iguales: utilizando condiciones idénticas, el físico ha logrado crear cristales que son auténticos gemelos idénticos. Y no solo de dos en dos, sino hasta en grupos de varios.

En su web, Libbrecht detalla paso a paso una receta para crear copos de nieve en casa, que resumo aquí. Estos son los materiales necesarios:

Esquema del aparato para crear copos de nieve. Imagen de Kenneth Libbrecht.

Esquema del aparato para crear copos de nieve. Imagen de Kenneth Libbrecht.

  • Una botella pequeña de plástico (con tapón)
  • Tres vasos de poliestireno
  • Una esponja pequeña de 1 cm de grosor
  • Hilo de náilon
  • Aguja de coser
  • Cuatro alfileres
  • Un clip
  • Toallas de papel
  • Cinta adhesiva
  • Unos cinco kilos de hielo seco (puede comprarse por ejemplo aquí)

Primero, se corta el fondo de la botella de plástico a 1 cm de la base. En este fondo se encaja una esponja circular, que se fija clavando cuatro alfileres en los laterales. La esponja y el fondo de la botella se perforan en su centro con una aguja en la que se ha enhebrado el hilo de náilon. Este se fija al exterior de la base con cinta adhesiva, y en el otro extremo se ata el clip para que sirva de peso. La longitud total del hilo debe ser tal que, al volver a colocar el fondo a la botella y ponerla boca abajo, el clip quede dentro de la botella sin llegar al borde del cuello.

Todo este tinglado de la botella, una vez mojada la esponja con agua del grifo, se introduce en los vasos de poliestireno rellenos de hielo seco machacado, como muestra la figura, y se cubre con toallas de papel alrededor de la botella. Con los materiales que Libbrecht utiliza, el vaso que rodea la botella debe agujerearse por la base, pero el físico aclara que esta disposición es solo una sugerencia.

Copos de nieve creados en el experimento. Imagen de Kenneth Libbrecht.

Copos de nieve creados en el experimento. Imagen de Kenneth Libbrecht.

Lo importante es que en la botella se creen dos zonas, templada y húmeda arriba, fría y seca abajo. El agua de la esponja supersatura el aire de vapor, que difunde pasivamente hacia abajo (el aparato se llama cámara de difusión). Al encontrar la zona fría, comienza a cristalizar en torno a un sitio de nucleación, suministrado por las irregularidades del hilo, y a los pocos minutos comenzarán a aparecer los cristales como los de la foto.

Según explica Libbrecht, esto mismo sucede en la atmósfera cuando el aire cálido y húmedo encuentra aire frío. Según la temperatura de este sea mayor o menor de 0 ºC , se forma lluvia o nieve. Cada gota de lluvia o copo de nieve lleva en su interior alguna partícula de polvo que sirve para la nucleación.

Obtener fotografías como las de Libbrecht es algo mucho más complicado, ya que esto requiere un microscopio en frío. Pero los cristales de nieve que se forman pueden verse a simple vista o con una lupa.

Otra sugerencia para Navidad es controlar las luces del árbol mediante peces eléctricos, para quienes tengan acuario y sean además un poco frikis. La propuesta viene del Laboratorio de Peces Eléctricos dirigido por Jason Gallant en la Universidad Estatal de Michigan (EEUU).

Gallant aclara que los peces realmente no alimentan la iluminación del árbol, sino que controlan el parpadeo de las luces. Es decir, que el montaje es una manera navideña y original de comprobar cómo los peces eléctricos africanos Gymnarchus, según el científico fáciles de encontrar en las tiendas de acuarios, navegan y se comunican con impulsos eléctricos; cada vez que el pez emite un pulso, el árbol se ilumina.

Pez eléctrico africano Gymnarchus. Imagen de Wikipedia.

Pez eléctrico africano Gymnarchus. Imagen de Wikipedia.

Para poner en práctica la idea de Gallant se necesita algo de material electrónico, pero también ciertos conocimientos de informática para programar una plataforma Arduino. La lista de los componentes necesarios y el código para programar el sistema se detallan en el blog de Gallant. Feliz navidad y felices experimentos.