BLOGS
Ciencias mixtas Ciencias mixtas

Los secretos de las ciencias para
los que también son de letras

Archivo de la categoría ‘Innovación’

“Seguir sin agencia espacial es perder cuatro años más”

Vía libre a ExoMars 2020, la segunda fase del gran proyecto europeo de exploración marciana. Esta fue la decisión tomada la semana pasada por el Consejo Ministerial de la Agencia Europea del Espacio (ESA), entidad participada por 22 países (y NO dependiente de la UE), entre ellos este en el que estoy ahora sentado.

Ignacio Arruego, ingeniero del INTA, junto a un modelo de Schiaparelli. Imagen de I. A.

Ignacio Arruego, ingeniero del INTA, junto a un modelo de Schiaparelli. Imagen de I. A.

Les pongo en antecedentes: en marzo de este año se lanzó la primera fase de ExoMars, un proyecto nacido de la colaboración entre la ESA y Roscosmos, la agencia espacial rusa. Este primer volumen constaba a su vez de dos fascículos: primero, la Trace Gas Orbiter (Orbitador de Gases Traza o TGO), un satélite destinado a estudiar los gases raros de la atmósfera marciana con especial atención al metano, posible signo de vida.

Segundo, Schiaparelli, un platillo volante de un par de metros que debía posarse en el polvo de Marte para catar el ambiente, pero que sobre todo debía servir de ensayo general para la segunda fase. Previsto para 2020, el segundo volumen de ExoMars pretende poner un vehículo rodante o rover en el suelo marciano.

Además de su carácter científico y tecnológico, la misión ExoMars tiene bastante de revancha histórica; porque hasta ahora el nuevo mundo marciano tiene un dueño exclusivo, Estados Unidos. Como ya he repasado aquí y en otros medios, las misiones de aterrizaje en Marte han tenido una tasa de éxito inusualmente baja en comparación con los proyectos a otros destinos, como la Luna o Venus, pero este premio de lotería no ha estado muy repartido: mientras la NASA ha dado en el clavo en la gran mayoría de sus intentos, Rusia y Europa han fracasado. La primera solo logró 14,5 segundos de transmisión con su sonda Mars 3 hace 45 años. Por su parte, Europa perdió en 2003 su Beagle 2, y el pasado octubre Schiaparelli se estampó contra su objetivo.

Uno de los afectados directamente por este reciente desastre es Ignacio Arruego, ingeniero del Instituto Nacional de Técnica Aeroespacial (INTA) responsable del equipo que desarrolló el Sensor de Irradiancia Solar (SIS). Este aparato, que debía medir la transparencia de la atmósfera de Marte (la luz del sol que llega a su superficie), formaba parte del instrumento principal de Schiaparelli, el DREAMS (Dust Characterisation, Risk Assessment, and Environment Analyser on the Martian Surface). El equipo del INTA participa también de forma destacada en la instrumentación del rover de ExoMars 2020.

Portada de 'El medallón de Santiago', novela de Ignacio Arruego.

Portada de ‘El medallón de Santiago’, novela de Ignacio Arruego.

Y por cierto, aprovecho la ocasión para contarles que, entre proyecto y proyecto, Arruego también encuentra algún rato para escribir. Su novela de debut, El medallón de Santiago, es una intriga con trasfondo histórico muy viajero que cuenta la investigación de sus dos protagonistas en busca de un antiguo y misterioso medallón que perteneció al apóstol Santiago.

Arruego me dice que está satisfecho con la decisión del Consejo Ministerial de la ESA de mantener la financiación de ExoMars. Pero no tanto con las palabras del ministro Luis de Guindos, que presidió la reunión debutando en este campo, tras asumir en el nuevo gobierno las competencias del sector espacial que antes recaían en Industria. Una carencia clásica de España es la falta de una agencia espacial, algo que tienen las principales potencias con actividades en este terreno. Según Arruego, las declaraciones de Guindos tras la reunión afirmando que España no necesita una agencia espacial han sentado muy mal en el sector. Esto es lo que me ha contado:

¿Por qué Guindos no quiere una agencia española del espacio?

Es gracioso, porque en cambio sí reconocía que hace falta coordinación entre todos los actores espaciales en España. Pues eso es precisamente, entre otras muchas cosas, lo que haría una agencia. Yo creo que siguen pensando que supondría un coste, y no se dan cuenta de que realmente existen ya todos los actores necesarios en España para hacer una agencia de verdad, ¡y por tanto una buena coordinación podría incluso disminuir gasto! Debería ser no un mero órgano gestor, sino una agencia con capacidad técnica y tecnológica, que defina y desarrolle programas propios tirando de la industria nacional, y estrategias internacionales y especialmente en la ESA; que aúne ingeniería de sistemas, I+D tecnológico y científico, la gestión económica, las relaciones con la ESA… En fin, una Agencia con mayúsculas.

Una pena. Lo considero otra oportunidad perdida por la falta de visión de nuestros políticos, sin duda mal asesorados. Otros cuatro años perdidos para que España termine de situarse en el mapa espacial internacional.

¿Hay nuevos datos sobre qué le ocurrió a Schiaparelli?

Como ya sabrás, se produjeron fundamentalmente dos eventos que provocaron la colisión: la suelta prematura del paracaídas y el corto encendido de los retrocohetes. Se ha especulado mucho sobre un fallo del altímetro radar, pero no parece estar allí el problema. Analizada la telemetría de la Unidad de Medida Inercial (IMU) que mide las aceleraciones de la nave durante el descenso, se observa que hay un breve lapso de tiempo (inferior a un segundo) en el que una de las medidas está saturada. Dado que el ordenador va calculando la orientación de la nave en base a las medidas acumuladas de esta IMU, durante el tiempo que ésta se satura no dispone de una información fidedigna. Ese dato de la IMU te permite saber cómo está orientada la nave respecto al suelo, y el radar te da la distancia al mismo según avanza la nave. Al estar equivocado el dato de la orientación, la nave llegó a obtener un valor que indicaba que la distancia real (en vertical) al suelo era negativa. Es decir, que había aterrizado. Y por eso cortó los retrocohetes.

Otra cosa que hizo, y esto es curioso, fue encender DREAMS, la estación meteorológica que transportaba y en la que participaba el INTA. DREAMS no debía encenderse hasta después del aterrizaje, pero como el ordenador pensó que había aterrizado aún estando a unos tres kilómetros de altura, nos encendió. Hay unos 40 segundos de telemetría relativa al estado de DREAMS, que era cien por cien nominal. Podemos decir que hemos llegado a Marte, pero poco rato.

¿Se ha averiguado algo sobre cuál fue la causa de ese error de percepción de Schiaparelli?

Aún se desconoce, y dudo que llegue a conocerse con un 100% de seguridad. La nave sufría unas aceleraciones digamos que laterales mayores de lo esperado pero, ¿por qué? ¿Rachas de viento fuerte? ¿Un mal despliegue del paracaídas? Eso no sé si llegaremos a saberlo con seguridad.

ExoMars 2020 sigue adelante, pero ¿en qué afectará el fracaso de Schiaparelli desde el punto de vista técnico?

La ESA trata de ser positiva en su análisis del resultado de ExoMars 2016. La realidad es que TGO está funcionando de momento según lo esperado, lo cual es un gran éxito. Y Schiaparelli, por mucho que suene a excusa, es cierto que era un módulo de demostración con el objetivo de permitirnos aprender a aterrizar en Marte. De alguna manera ha cumplido su misión en ese sentido, pues como ves se ha aprendido mucho de la telemetría enviada durante el descenso. Se reforzarán los ensayos a los elementos críticos y se revisarán algunas secuencias de tomas de decisiones. Se ha aprendido, sin duda.

¿Y este aprendizaje ofrecerá más garantías de éxito a la próxima fase?

Sí, en 2020 deberíamos ser capaces de aterrizar con más garantías. No es trivial, aún así. No sólo porque nunca lo es (el conocimiento de la atmósfera de Marte sigue siendo muy incierto), sino porque la nueva misión es bastante más pesada (algo así como el triple si no recuerdo mal), requiere el uso de dos paracaídas (uno hipersónico y otro subsónico), etcétera. Hay diferencias. Pero hay que ser optimista y sobre todo trabajar duro en los elementos críticos y en sus ensayos. Creo que irá bien.

¿Cuál es tu predicción sobre el futuro de las misiones tripuladas?

Como sabes, hay dos grandes corrientes de pensamiento en torno a cómo ir a Marte. Una pasa por ir llevando todo lo que nos hace falta para volver. Empezando por el combustible para el despegue de vuelta. Se barajan naves muy grandes, a menudo con ensamblajes en órbita porque la capacidad de despegue de la Tierra no daría para lanzarlas de una vez.

La otra aproximación pasa por emplear naves más pequeñas, tripulaciones muy reducidas, y hacer uso intensivo de ciertos recursos existentes en Marte. Por ejemplo, es posible generar el combustible allí para un despegue desde Marte, llevando sólo una pequeñísima parte de sus componentes (hidrógeno, en concreto), y obteniendo carbono y oxígeno de la atmósfera de Marte, rica en CO2.

Yo creo que hasta la fecha siempre se ha hablado más de la primera aproximación. Yo a día de hoy soy más partidario de la segunda. Creo que es la más realista para un primer viaje tripulado, y que terminará imponiéndose. Probablemente la tecnología permita tenerla lista en unos 15 años desde que se decida ponerse con ello. Pero nadie se ha puesto seriamente aún. Existe la Iniciativa Mars Direct desde hace la tira, pero nunca ha sido el enfoque adoptado por las grandes agencias, ni parece que lo sea ahora por gente como Elon Musk. Creo que si hay un cambio de enfoque veremos humanos en Marte bastante antes de la mitad del siglo. Si no lo hay, ya veremos.

¿Nos llevará Elon Musk a Marte?

Lo que nos separa de Marte no es un problema técnico, sino político. Como ya he explicado aquí varias veces, si se hubiera mantenido el ritmo de inversión en exploración espacial de la década de los 60, como mínimo ya habríamos puesto el pie en Marte varias veces.

Si al público de entonces (hablo del público con algo de formación en ciencia, no de los negacionistas) le asombró que en 12 años se pasara de chutar una pelota de metal a la órbita, a llevar gente a la Luna, hoy no debería sorprendernos, sino noquearnos de la pura estupefacción: jamás se ha vuelto a dar una progresión semejante en la exploración espacial.

Pero he dicho político, y no económico; y es que el fin de aquella lluvia de millones no se debió solo a la guerra de Vietnam ni al carpetazo a la misión cumplida. La mentalidad comenzó a cambiar. Una vez que ya no era preciso demostrar quién lo tenía más grande (el cohete), las suelas de políticos, científicos e ingenieros extinguieron los rescoldos de aquel “to boldly go where no man has been before“, que los discursos de JFK habían ayudado a prender. Solo quedó la ciencia, y las misiones robóticas podían hacer toneladas de ciencia por mucho menos dinero que las tripuladas. Mandar gente ahí arriba era demasiado caro, y el riesgo de una pérdida era imposible de descartar por mucho que se duplicaran, triplicaran y cuadruplicaran los sistemas de seguridad.

El problema es que al público en general no le importa demasiado la ciencia. Quiero decir, la de verdad, no esa que correlaciona cosas como la esperanza de vida y el lado al que se lleva la raya del pelo. Y así, el espacio quedó relegado a esos 20 segundos que los directores de los telediarios no saben con qué rellenar.

Hoy, por fin, algo está rompiendo este marasmo. Cada vez hay más miembros de la comunidad aeroespacial preocupados por el insignificante interés que la ciencia espacial actual despierta en los bares, los lugares donde fluye el único pulso de la calle que resulta admisible para más de un redactor jefe chusquero. Cada vez hay más miembros de la comunidad aeroespacial dispuestos a reconocer, aunque sea sotto voce, que tal vez las pérdidas deban entrar en la ecuación; incluso que tal vez no haya que cerrar la puerta a las misiones tripuladas sin billete de vuelta, o al menos con billete abierto.

Elon Musk, en una presentación reciente. Imagen de Wikipedia.

Elon Musk, en una presentación reciente. Imagen de Wikipedia.

Y luego está Elon Musk.

En los últimos años se viene hablando de lo que se ha dado en llamar “Old Space vs. New Space. Old Space es el sistema público, su burocracia, su velocidad de caracol con la concha de su gran aparato a las espaldas, y su aversión al riesgo humano y económico. El espíritu del Old Space ha quedado monumentalizado en ese inmenso ganso orbital llamado Estación Espacial Internacional (ISS), que vuela sobre nosotros a una distancia como la que separa Madrid de Córdoba.

New Space es la iniciativa privada de las start-ups con ideas nuevas, agilidad, audacia y sentido del riesgo. El New Space es el equivalente actual de aquella NASA que lanzó al espacio el Apolo 13 y luego se las ingenió para que sus tripulantes pudieran salvar la vida encajando filtros cuadrados de CO2 en huecos circulares. La NASA de hoy es Old Space. New Space es SpaceX de Musk (fundador de PayPal), Blue Origin de Jeff Bezos (fundador de Amazon) o Virgin Galactic de Richard Branson (más conocido como fundador de la aerolínea Virgin, excepto para quienes le debemos gratitud por los discos de Sex Pistols, Devo o Simple Minds). Solo por citar tres ejemplos célebres de entre miles de pequeñas compañías frescas e innovadoras en países de todo el mundo.

Avanzando por un camino sembrado de baches, pero gracias a sus menores costes y a sus soluciones imaginativas, los impulsores del New Space están arrebatando trozos del pastel al Old Space, como las misiones no tripuladas de reabastecimiento a la ISS. Sin embargo, es evidente que compañías como SpaceX no nacieron para comerse un pastel rancio, sino para cocinar el suyo propio. Y Musk quiere llevarnos a Marte.

Hace unas pocas semanas, Musk pronunció en un congreso espacial en Guadalajara (México) el que se ha calificado como el discurso más importante de su vida. En la charla, el también fundador de Tesla Motors expuso su plan de crear una colonia en Marte durante la próxima década y detalló el proyecto del Interplanetary Transport System (ITS), un sistema de cohete y nave tripulada con capacidad para cien personas. Pero sobre todo, Musk reveló algo infinitamente más significativo; y es que todo lo demás, los pagos por internet, los coches eléctricos, la inteligencia artificial o las energías limpias, son medios para un fin, su verdadera misión en la vida: hacer del ser humano una especie interplanetaria.

Y es que, por todo lo que he explicado más arriba, actualmente la conquista de Marte no puede plantearse como un objetivo científico, técnico, económico o político; hoy solo puede alcanzarse si se aborda como un objetivo ideológico. Y esta es precisamente la visión de Musk. Es cierto que, por abultada que sea su cartera, ni mucho menos le da para pagar esta ronda. Pero veámoslo así: hasta ahora, Elon Musk es la persona con mayor capacidad de hacer realidad lo que se proponga que se ha propuesto ir a Marte.

Otro aspecto del esquema de Musk que me incita a ovacionarle hasta descarnarme las palmas es su intención de democratizar el espacio. Se acabó la eugenesia espacial, ese requisito del Old Space de ser un Superman o una Superwoman para ser admitido en el club de los que pueden subir allí arriba. Los pasajeros de SpaceX no deberán tener la cabeza de Einstein sobre los hombros de Usain Bolt: cualquier humano podrá tener su hueco. Tal vez alguien alegue que los 100.000 o 200.000 dólares a los que Musk espera rebajar el coste de sus billetes no sean precisamente precios populares. Pero es que no se trata de unas vacaciones. ¿Cuánto cuesta una vivienda en la Tierra? ¿Cuánto cuesta una vida en la Tierra? El pasaje para Marte será la inversión de toda una vida, ya que los viajeros no serán cruceristas, sino colonos.

Por último, hay también otro motivo por el cual el paso adelante de Musk es trascendental, y es el efecto de arrastre que ejercerá sobre sus posibles competidores, incluidos los del Old Space: apenas un par de semanas después de aquella charla, el mismísimo Barack Obama publicó un artículo en la web de la CNN declarando la firme determinación de su país de “enviar humanos a Marte en la década de 2030 y devolverlos sanos y salvos a la Tierra, con la ambición última de algún día permanecer allí durante largo tiempo”. ¿Casualidad?

Y por cierto, y aunque la NASA lleva tiempo trabajando en preciosas presentaciones de Power Point de su plan marciano llamado Journey to Mars, en algo el Old Space sí se parece al New Space: tampoco tiene el dinero.

Un fotograma del vídeo promocional de SpaceX sobre su sistema de transporte a Marte ITS.

Un fotograma del vídeo promocional de SpaceX sobre su sistema de transporte a Marte ITS.

Los Nobel de Física y Química premian los chips prodigiosos

Si no fuera porque no es así como funciona, se diría que los comités de los Nobel de Física y Química de este 2016 se han puesto de acuerdo para premiar un mismo campo, las nanocosas del nanomundo. Dirán ustedes que gran parte del trabajo de la física, la química y la biología consiste precisamente en indagar en todo aquello que no podemos ver a simple vista, y no se equivocarán. Si fuera posible miniaturizarnos –esta semana volví a ver aquella divertida película de Dante y Spielberg, El chip prodigioso–, la naturaleza no tendría misterios para nosotros. No habría nada que investigar; bastaría con abrir los ojos y ver qué pasa.

Fotograma de la película 'El chip prodigioso' (1987). Imagen de Warner Bros.

Fotograma de la película ‘El chip prodigioso’ (1987). Imagen de Warner Bros.

Pero dentro de todo ello, hay un área transversal de la ciencia que se dedica específicamente a explorar cómo es el paisaje a esa escala diminuta, cómo son sus montañas, valles y costas, y a fabricar aparatos que puedan desenvolverse en ese entorno de lo diminuto del mismo modo que lo hace un rover en Marte. No es un minimundo ni micromundo, ya que el prefijo “micro” comprende los tamaños en el rango de la célula y sus partes. La unidad de medida allí es el nanómetro, la millonésima de milímetro, y desde ahí hacia abajo. En algún momento, los científicos comenzaron a referirse a ese mundo añadiéndole un “nano”: nanotecnología, nanoingeniería, nanociencias.

Nuestro mundo tiene sus formas, lo que llamamos el relieve topográfico. Esas formas pueden cambiar a lo largo del tiempo debido a fuerzas de la naturaleza, pero siguiendo ciertas reglas: cuando en una montaña se ha horadado una cueva, un derrumbamiento podrá hacerla desaparecer, pero la montaña no puede deshoradarse y volver a quedar como estaba. Y un río no puede correr sobre la cumbre de una montaña.

Hay una rama de las matemáticas que estudia las formas, o topos, y cómo pueden transformarse unas en otras a través de transiciones permitidas: por ejemplo, se puede deformar, pero no cortar y pegar. Una hoja de papel puede convertirse en una silla de montar, pero no en una bola. La topología se aplica a áreas de las matemáticas como el álgebra y la geometría, pero también a la física.

El funcionamiento de la materia está relacionado con su estructura. Por ejemplo, un metal conduce la electricidad porque permite el libre movimiento de los electrones. Algunos físicos exploran las fronteras de ese nanomundo, los límites exóticos de la materia donde aparecen propiedades inusuales; por ejemplo, los semiconductores o los superconductores. Como los paisajes, esa materia tiene sus formas y sus reglas, lugares inaccesibles por donde un río no puede discurrir, o un electrón no puede moverse. De la aplicación de la topología a estas formas exóticas de la materia y a sus cambios (como de sólido a líquido) pueden aprovecharse algunas de esas propiedades raras. La capacidad de manipular y controlar a voluntad la conductividad de un material es la base de toda la tecnología electrónica que utilizamos hoy.

El Nobel de Física 2016 ha premiado a los británicos (los tres trabajando en EEUU) David Thouless, Michael Kosterlitz y Duncan Haldane por haber sentado en los años 70 y 80 las bases de esa topología de la materia exótica y de sus transiciones de fase. Por cierto que el padre de Kosterlitz, Hans, bioquímico, se quedó a un paso del Nobel como uno de los descubridores de las endorfinas.

En ese nanopaisaje, a partir de los años 80 algunos investigadores empezaron a construir máquinas, sistemas formados por piezas que se mueven cuando se les aplica energía, del mismo modo que una batidora gira cuando se enchufa a la red eléctrica. Las piezas de estas máquinas son moléculas, diseñadas con una forma específica que les permite desempeñar la función deseada una vez que ocupan su lugar, tal como hacen los ingenieros industriales. La primera de estas piezas, obra del francés Jean-Pierre Sauvage en 1983, era una simple cadena de dos eslabones que permitía el movimiento libre.

La nanoingeniería de máquinas se inspira en la propia naturaleza. Unos años antes habían comenzado a descubrirse los primeros nanomotores (máquinas rotativas) naturales, comenzando por el flagelo que emplean algunas bacterias para propulsarse en el agua y que consiste en un mecanismo giratorio. En 1991, el escocés Fraser Stoddart logró construir un nanoanillo que podía girar y desplazarse alrededor de un eje. Ocho años después, el holandés Bernard Feringa construía el primer nanomotor, una especie de ventilador de una sola aspa.

Sauvage, Stoddart y Feringa han sido premiados con el Nobel de Química 2016. Desde entonces se han construido nuevas nanomáquinas, como nanoascensores o nanocarretillas. Algunas de ellas se inspiran en mecanismos previamente inventados por la naturaleza; por ejemplo, nuestros músculos funcionan gracias a una nanomáquina deslizante, un sistema similar al que también sirve para que nuestras células expulsen al exterior ciertas sustancias, como moléculas de defensa contra infecciones.

Nanocoche Nanobobcat, de la Universidad de Ohio. Imagen de OU.

Nanocoche Nanobobcat, de la Universidad de Ohio. Imagen de OU.

Se espera que en el futuro una de las principales aplicaciones de las nanomáquinas sea la medicina. Como en El chip prodigioso, pero con un Dennis Quaid molecular. También servirán para usos como construir nuevos sensores y sistemas de almacenamiento de energía. Por el momento, una de las ramas más sorprendentes de la nanoingeniería es la fabricación de nanocoches, máquinas capaces de desplazarse sobre una superficie utilizando una fuente de energía, por ejemplo la luz.

De hecho, este año se celebrará en Toulouse (Francia) la primera carrera mundial de nanocoches, como expliqué con detalle en un reportaje a finales del año pasado. Varios laboratorios del mundo han presentado sus prototipos de lo más variado, como una versión nanoscópica de Los autos locos. Estaba previsto que la carrera se celebrara el 14 y 15 de este mes, pero los organizadores han decidido posponerla para dejar algo más de tiempo a las nanoescuderías para que pongan a punto sus modelos, que deberán correr sobre una pista de oro en el vacío a -268 ºC.

Cuernos sintéticos de rino, ¿solución o simple negocio?

Hoy traigo una muestra de que no todos aquellos interesados en que los rinocerontes continúen existiendo dentro de 20 años están convencidos de que la actual prohibición del comercio internacional de cuernos sea lo mejor para lograrlo. Quienes sí lo piensan, como la Born Free Foundation (BFF) de la que hablé ayer, alegan razones cuyo resumen general viene a ser que la legalización podría elevar la demanda, y el riesgo de esta posibilidad aconseja no tocar el veto vigente desde 1977.

Un rinoceronte blanco en el Parque Nacional de Meru (Kenya). Imagen de J. Y.

Un rinoceronte blanco en el Parque Nacional de Meru (Kenya). Imagen de J. Y.

Pero ¿ha funcionado el veto? Este gráfico, publicado en Science en 2013, muestra de un vistazo la evolución de la caza furtiva de rinos de 2000 a 2012.

poaching

Organizaciones como BFF alegan que hasta 2007 el veto estaba cumpliendo su función, ya que el furtivismo contra los rinos se mantenía a niveles muy bajos. Y que el ascenso vertiginoso a partir de 2008 es un fenómeno esporádico no relacionado con la demanda tradicional, sino provocado por la repentina moda en Vietnam de adquirir polvo de cuerno de rinoceronte como capricho caro de los nuevos millonarios.

Pero si los datos son objetivos, las interpretaciones son libres. ¿Realmente fue el veto lo que mantuvo el furtivismo a raya hasta 2007? ¿O fue simplemente la ausencia de demanda, ya que China había retirado en 1992 el cuerno de rino su farmacopea tradicional a raíz de su entrada en el CITES? Sin duda, el surgimiento de una nueva oleada de demanda a partir de 2008 disparó la matanza de rinos a pesar del veto. Por este motivo, hay quienes piensan que no hay pruebas suficientes para evaluar los efectos del veto ni mucho menos su posible modificación.

Entre estos se cuenta la ONG británica Save the Rhino International (STRI), la mayor entidad dedicada específicamente a la conservación de los rinocerontes, y uno de cuyos principales promotores fue Douglas Adams, autor de La guía del autoestopista galáctico. Según me cuenta Cathy Dean, directora de STRI, Suráfrica emprendió un exhaustivo estudio de 18 meses a cargo de un comité de expertos, con vistas a la posible presentación de una propuesta de legalización del cuerno de rino en la reunión del CITES que se celebra estos días en Johannesburgo. Sin embargo, finalmente la moción no fue presentada. Por este motivo la pequeña Suazilandia, que planeaba votar a favor de la propuesta para poder vender su stock de cuernos, decidió en el último momento presentar la suya propia de manera precipitada.

“Suráfrica no ha publicado los resultados del comité”, dice Dean. “¿No sería útil para las partes del CITES, los 182 países, poder ver el informe del comité para poder tomar una decisión informada?”, se pregunta. La visión de STRI es que se trata de una cuestión compleja con múltiples variables, y que por tanto no se puede liquidar con ideas preconcebidas o eslogans. “En SRTI aún no tenemos una postura definitiva sobre si legalizar el comercio internacional de cuerno de rino ayudaría a asegurar la supervivencia a largo plazo de las especies de rinos, o si aceleraría su extinción”, concluye Dean. “Creemos que no hay suficientes pruebas disponibles para formarnos una opinión clara”.

Dean confiesa no saber si realmente la legalización elevaría la demanda, una postura mucho más juiciosa que la de quienes afirman tajantemente que sí. Hoy por hoy, lo único que sabemos es que la demanda ha aumentado sin la legalización. Por ello, Dean considera que como mínimo el veto no es una varita mágica, y que la batalla deberá continuar en todos los campos donde se libra actualmente, desde la sabana hasta las calles de Vietnam.

En esta lucha se ha abierto recientemente un nuevo frente. Un puñado de compañías biotecnológicas han anunciado que pronto comenzarán a fabricar cuerno de rino artificial mediante nuevas tecnologías de bioimpresión en 3D. Cuando empresas como Pembient o Rhinoceros Horn anunciaron sus planes de poner a la venta este producto, muchos palidecieron, ya que este material abre un agujero legal no cubierto por el CITES (nota: las resoluciones del CITES afectan únicamente al comercio internacional, mientras que cada país es libre para legislar sobre el comercio interior).

La gran mayoría de las ONG, incluyendo BFF y STRI, se han manifestado en contra de la comercialización de este producto. No todas: Traffic, que lucha contra el comercio internacional de especies, fue más cauta al sugerir que esta vía no debería descartarse directamente sin un análisis más profundo.

No por casualidad, Matthew Markus, CEO de Pembient, está presente estos días en la reunión del CITES en Johannesburgo, según contó Business Insider. Pero la legitimidad de la aspiración de Markus de poner a la venta un producto que no es ilegal se tambalea con sus declaraciones. El empresario dijo a BI que reducir la demanda de cuerno “no sería ético”, ya que “estas prácticas se basan en miles de años de tradición cultural; son mucho más viejas que Acción de Gracias”.

Lo cual es un engaño deliberado, ya que Markus sin duda debe conocer que la nueva demanda vietnamita no guarda absolutamente ninguna relación con la medicina tradicional china, sino que es una moda de nuevos ricos nacida del rumor según el cual un expolítico de aquel país se había curado el cáncer tomando polvo de cuerno. Como he mencionado más arriba, el cuerno de rino ya no está presente en el recetario oficial publicado por la Administración Estatal de la Medicina Tradicional China. Las palabras de Markus revelan su lógico deseo de una demanda potente, escudado en un argumento falaz.

Por otra parte, y si la apertura al comercio de cuerno natural podría legitimar el producto ante sus consumidores (como me decía la portavoz de BFF), mucho más aún lo haría la puesta a la venta de un sucedáneo sintético. Mientras organizaciones como WildAid se empeñan en la ardua labor de convencer al público en el sureste asiático de que el cuerno de rinoceronte no tiene absolutamente ninguna propiedad terapéutica, psicotrópica ni afrodisíaca (su composición es la misma que la del pelo y las uñas), el efecto que tendría la venta de un sustituto artificial puede resumirse en una frase al estilo de eso que últimamente viene llamándose cuñadismo, pero en versión vietnamita: “¿Lo ves? Si no sirviera para nada, ¿crees que lo venderían los americanos?”.

B. V. Larson: “Los autores de ciencia ficción somos cheerleaders de la innovación”

Mañana, 21 de septiembre de 2016, H. G. Wells habría cumplido 150 años.

Si volviese hoy, no nos encontraría viajando en el tiempo, volviéndonos invisibles o recuperándonos de una invasión marciana, pero sí descubriría que aún seguimos pensando, debatiendo y escribiendo sobre todo esto.

Y es que tal vez el mayor legado de los grandes maestros de la ciencia ficción sea su capacidad de haber sembrado ideas que se perpetúan ejerciendo una poderosa influencia, no solo en los autores posteriores, sino también en el propio pensamiento científico.

B. V. Larson. Imagen de YouTube.

B. V. Larson. Imagen de YouTube.

Mañana tocará hablar de Wells, pero hoy quiero abrir boca con uno de sus muchos herederos. Recientemente tuve ocasión de hacer esta breve entrevista al californiano B. V. Larson. Conocido sobre todo por su serie Star Force, Larson es un autor inexplicablemente prolífico que ha forjado su carrera por la vía de la autopublicación. Una elección que le ha funcionado de maravilla, a juzgar por su presencia habitual en la lista de Amazon de los más vendidos en ciencia-ficción.

Larson posee un fenotipo que interesa especialmente a este blog: es uno de los numerosos autores de ciencia-ficción que han surgido desde dentro, desde el mundo de la ciencia y la tecnología. En su caso, es profesor en ciencias de la computación y autor de un exitoso libro de texto que continúa reeditándose.

Según me cuenta, en un momento de su vida trabajó como consultor de DARPA, la agencia de investigación del Departamento de Defensa de EEUU, en la Academia Militar de West Point. Con todo este equipaje, Larson es el tipo ideal a quien hacerle algunas preguntas sobre la relación entre la ciencia y su versión ficticia.

¿Cómo se relaciona la ciencia-ficción con el progreso científico y tecnológico?

No hay duda de que la ciencia-ficción influye en la innovación, pero también lo contrario. En la mayoría de los casos, es difícil decir cuál de las dos comienza el proceso. Los autores de ciencia-ficción son futurólogos que leen las nuevas tendencias en la industria y la ciencia, convirtiéndolas en historias de ficción con extrapolaciones. A su vez, los ingenieros leen estas historias y obtienen inspiración. En otras palabras, para entender el proceso yo pensaría en el papel del escritor creativo y el mundo real de la ingeniería, ambos como partes de un ciclo de innovación.

¿Hay algunas épocas en las que esta influencia haya sido mayor?

Yo diría que la ciencia-ficción fue muy importante desde 1900 hasta la década de 1970, pero menos de 1980 a 2010. Solo ahora está volviendo a ser lo que fue. ¿Por qué? Porque en los 30 años entre 1980 y 2010, la mayoría de la ciencia-ficción que se leía ni siquiera intentaba ser técnica, sino que se centraba en cuestiones sociales. Esto está cambiando ahora, y la ciencia-ficción está volviendo a ser lo que fue originalmente y a recapturar el corazón de los ingenieros.

Se suele hablar del papel de los autores como profetas tecnológicos. ¿Hasta qué punto no predicen, sino que marcan el camino a seguir?

Los ingenieros son quienes merecen la mayor parte del crédito. Los escritores de ciencia-ficción sirven para inspirar, para atraer a la gente joven a expandir el mundo a través de la tecnología, más que para hacer posible lo imposible. Somos más bien cheerleaders, oradores motivacionales, más que poderosos magos. Puede parecer que predecimos el futuro, pero lo que realmente hacemos es estudiarlo y pensar sobre él para hacer predicciones lógicas.

¿Y cuáles serían ahora esas predicciones? ¿Habrá algo de esos avances típicos del género y siempre pendientes, como coches voladores, naves espaciales más rápidas, reactores personales…?

Yo diría que la mayor parte de esas áreas ya han tenido su oportunidad. Piensa en un avión de pasajeros: si volvieras a 1975 y subieras a un avión, la experiencia, la velocidad de vuelo y todo lo demás sería prácticamente igual que hoy. Esto es normal en tecnología. Una vez que una tecnología nueva y poderosa se hace realidad, hay un período de unos 50 años de innovación muy rápida, y después se frena. Con los aviones, pasaron menos de 40 años desde el primer vuelo de los hermanos Wright hasta el ataque japonés a Pearl Harbor con bombarderos. Poco después teníamos aviones volando a todas partes. Y después nada. No ha habido cambios reales en 40 años.

Entonces, ¿qué áreas están ahora en ese período de innovación rápida?

Yo esperaría grandes cambios en el área de la biología. Pastillas que te permitan vivir 10 o 20 años más. Órganos impresos en 3D para reemplazar los dañados. O quizás nanites [nanorrobots] que practiquen nanocirugía dentro de nuestro cuerpo. Implantes cibernéticos, ese tipo de cosas. En eso se centra mi serie Lost Colonies.

Drácula, Poe, el Kama Sutra y OK Go sobrevivirán al fin del mundo

No es que la música de OK Go sea de mi más especial predilección (como ya he manifestado aquí, mis preferencias suelen ir por otros sonidos), pero admiro lo que hacen estos cuatro tipos de Chicago. Adoro a la gente que camina en sentido contrario a los demás, a quienes se toman demasiadas molestias para algo que realmente no lo requiere, y a los que se enfrascan en algo anteponiendo la pasión al plan de negocio. Es decir, a quienes violan las tres leyes fundamentales del universo: la ley de la inercia, la ley del mínimo esfuerzo y la ley de la conservación de lo que sea.

Captura del vídeo de OK Go. Imagen de YouTube.

Captura del vídeo de OK Go. Imagen de YouTube.

Para quien aún no los conozca, explico que lo más distintivo de OK Go son sus vídeos. Entre tanta saturación de efectos digitales y realidad virtual, ellos se diferencian por organizar unas complejísimas coreografías reales, increíblemente sincronizadas, que a menudo se ruedan en un solo plano secuencia y que además en muchos casos juegan con la ciencia aplicada. Si les interesa descubrirlos, basta una simple búsqueda en YouTube. Pero hay un motivo para que hoy traiga aquí uno de sus clips, el de This Too Shall Pass.

Para este tema, organizaron un montaje al estilo de lo que en EEUU llaman una máquina de Rube Goldberg. Los que pasamos de los 40 tenemos aquí un equivalente cultural propio, los Grandes Inventos del TBO, cuyo principal artífice fue el dibujante catalán Ramón Sabatés.

Tanto Goldberg como Sabatés presentaban a un ficticio profesor (Lucifer Gorgonzola Butts en la versión americana, Franz de Copenhague en la española) que diseñaba unas complicadísimas máquinas cuyo resultado era una tarea muy tonta, fácilmente accesible por medios infinitamente más simples; por ejemplo, limpiar la boca con la servilleta. En el caso del vídeo de OK Go, el resultado final de su máquina es disparar un chorro de pintura a cada uno de los integrantes de la banda.

El motivo por el que hoy lo traigo aquí es que este clip de OK Go es el primer vídeo jamás codificado en forma de ADN. Ya he explicado aquí y en otros medios en qué consiste la codificación de archivos digitales en material genético: se diseña un sistema de conversión del código binario (unos y ceros) a las cuatro bases del ADN (A, T, G y C), se traduce el archivo deseado y se sintetiza una cadena de ADN con esa secuencia.

Y también he explicado por qué esta línea de investigación es interesante: los soportes digitales caducan rápidamente, bien porque se estropean, o bien porque aparecen otros formatos y soportes nuevos que dejan obsoletos a los antiguos. En cuanto a su conservación física, el ADN puede durar cientos de años, miles de años, incluso millones de años, según el sistema de almacenamiento elegido. Y en cuanto a su vigencia tecnológica, si de algo no cabe absolutamente ninguna duda es de que siempre vamos a seguir necesitando dispositivos de lectura de ADN. Las máquinas cambiarán, pero el ADN continuará siendo el mismo por los siglos de los siglos.

Entre los grupos de investigación que trabajan en esta línea se encuentra un equipo de Microsoft Research y la Universidad de Washington (EEUU). El pasado abril, los investigadores presentaron en un congreso la codificación de cuatro imágenes en forma de ADN. Ahora han anunciado un nuevo hito: la conversión a material genético de la Declaración Universal de los Derechos Humanos en más de 100 idiomas, los 100 libros de dominio público más descargados del Proyecto Gutenberg, la base de datos de semillas del proyecto Crop Trust y, claro está, el vídeo de OK Go en alta definición. En total, 200 MB; una ridiculez para los tamaños digitales, un gran salto para el almacenamiento en ADN.

Según Karin Strauss, la investigadora principal del proyecto en Microsoft, eligieron este vídeo de OK Go porque guarda paralelismo con el trabajo que ellos llevan a cabo. “Son muy innovadores y están reuniendo en su campo cosas diferentes de distintas áreas, y sentimos que estamos haciendo algo muy similar”.

Naturalmente, la codificación en ADN tiene sus inconvenientes, y siempre los tendrá. Tanto escribir como leer una secuencia genética es mucho más lento que escribir o leer un archivo binario, y más costoso. En general el sistema no se contempla como para un uso inmediato de los datos en dispositivos móviles, sino para crear repositorios a largo plazo. Pero a cambio, la densidad de información que puede alcanzar el ADN es 100 millones de veces mayor que las cintas magnéticas empleadas hoy en los grandes centros de datos: según los investigadores de Washington, los datos que llenarían todo el volumen de un hipermercado en formato electrónico caben en un terrón de azúcar si se traducen a ADN.

Pero sobre todo, su enorme ventaja es la durabilidad. Si algún día llegara ese fin del mundo que tantas veces hemos contemplado desde la butaca y del que tanto llevan advirtiéndonos, difícilmente se salvarían los datos digitales. Suelen decirnos que en el mundo existen muchas copias de toda la información que volcamos en la red, como estas palabras que estoy escribiendo. Pero ¿cuántas son “muchas”? ¿Decenas? ¿Centenas? ¿Millares, como mucho? Cada una de esas copias está escrita en un sofisticado y frágil soporte electrónico. ¿Cuántos de ellos se salvarían en caso de una catástrofe planetaria?

Como ha demostrado el investigador del Instituto Federal Suizo de Tecnología en Zúrich (ETH) Robert Grass, el ADN puede encapsularse en fósiles artificiales capaces de proteger la información que guardan durante miles o tal vez millones de años. El método consiste en encapsular la molécula en minúsculas bolitas de sílice de 0,15 milésimas de milímetro; es decir, granos de arena muy fina.

Hagamos una pequeña cuenta recreativa: según las compañías EMC Corporation e International Data Corporation, en 2020 el universo digital ocupará un total de 44 zettabytes (ZB), o 44.000 millones de terabytes (TB), o 44 billones de gigabytes (GB). La compañía Cisco calculó que un ZB ocuparía el mismo volumen que la Gran Muralla China. Tomando una cifra publicada para el volumen de la muralla de 34.423.725.600 pies cúbicos, o 974.771.357 metros cúbicos, tenemos que en 2020 el volumen total de datos digitales del planeta será de 42.889.939.708 metros cúbicos.

En forma de ADN, la densidad de almacenamiento es 100 millones de veces mayor, lo que nos daría un volumen de unos 429 metros cúbicos. La raíz cúbica de 429 es aproximadamente 7,5. Es decir, que en un cubo de arena de siete metros y medio de lado cabría, en forma de ADN, toda la información digital jamás producida desde el origen de la humanidad hasta 2020.

Y cuando se sintetiza ADN, no se fabrica una sola copia, sino millones. Playas y playas de nanocápsulas de sílice que conservarían todo lo que fuimos, durante millones de años. Por supuesto que, en caso de apocalipsis, deberíamos esperar a que los supervivientes reinventaran de nuevo la tecnología necesaria para leerlo. O a que otros lo hicieran por nosotros y así llegaran a saber quiénes fuimos.

Por si se lo están preguntando, en ese puñado de libros ya codificados para la eternidad solo hay uno de un autor español, y no es necesario que les aclare de cuál se trata. Pero lamento comunicarles que esta versión comienza así:

In a village of La Mancha, the name of which I have no desire to call to mind, there lived not long since one of those gentlemen that keep a lance in the lance-rack, an old buckler, a lean hack, and a greyhound for coursing. An olla of rather more beef than mutton, a salad on most nights, scraps on Saturdays, lentils on Fridays, and a pigeon or so extra on Sundays, made away with three-quarters of his income.

Antes de que nadie se lleve las manos a la cabeza, insisto en lo que he mencionado más arriba: son los 100 libros más descargados. El Proyecto Gutenberg también dispone de la versión original en castellano. Pero si el Quixote acumula más del doble de descargas que el Quijote, la culpa no es del Proyecto Gutenberg.

Y sí, están el Drácula de Stoker, La metamorfosis y El proceso de Kafka y (solo) dos de los cinco volúmes de las obras completas de Poe. Y Wells. Y Anna Karenina. Y Moby Dick. Y El corazón de las Tinieblas. Y El retrato de Dorian Gray. Y Madame Bovary. Ah, y el Kama Sutra, para que no se nos olvide nada. Personalmente, y si pudiera elegir, añadiría a Proust, La vida es sueño, algunas cosas de Hemingway, Fitzgerald, Steinbeck… Lovecraft… ¡Dinesen, claro!… Y los rusos… algo más de Verne… Y claro, todo el romanticismo español. Pero también Zola. Y Víctor Hugo. Qué difícil es elegir. Pero por razones que no vienen al caso, me gustaría poder volver a escuchar al menos la obertura de la Cavalleria Rusticana de Mascagni, el Moonriver cantado por Audrey Hepburn, November Rain de Guns N’ Roses, el Ecstasy of Gold/Call of Ktulu/Master of Puppets de Metallica, Janie Jones de los Clash y Ceremony de Joy Division. Y el Script of the Bridge completo de los Chameleons. Habría muchísimos más. Pero con esto creo que bastaría para entretenerme mientras espero el fin.

‘Leche’ de cucaracha, ¿un superalimento para el futuro?

En ninguna fantasía futurista de mediados del siglo XX faltaba un elemento: la comida en píldoras, el alimento de los astronautas que estaba destinado a ser el de todos en ese futuro de coches voladores, trajes metalizados y viviendas subterráneas. Como expliqué aquí recientemente, esto no era solo una caricatura del futuro: el mismísimo Isaac Asimov vaticinaba que en este siglo todos estaríamos encantados de alimentarnos solo con comida precocinada.

Comida de la Estación Espacial Internacional. Imagen de Wikipedia.

Comida de la Estación Espacial Internacional. Imagen de Wikipedia.

Eran otros tiempos, y era el pensamiento de la modernidad. Pero después llegó la posmodernidad y, como ocurre con los cambios de ciclo, la balanza se desplazó hacia el extremo opuesto. Hoy impera la vuelta a la naturaleza, que ha dado lugar a toda una mitología seudocientífica basada en una errónea comprensión de los términos, pero que las marcas comerciales explotan hasta la saciedad; por ejemplo, aumentando los precios de los alimentos “orgánicos” un 30% o más, cuando la producción es solo entre un 5 y un 7% más cara.

Sin embargo, aún tenemos pendiente el problema de Malthus. Este economista británico calculó que el crecimiento de la población excedería la capacidad del planeta para sostenerlo, una idea que fue clave en el pensamiento de Darwin para llegar a la idea de la selección natural. Aunque el malthusianismo también ha tenido sus críticos, sigue pareciendo que el previsible crecimiento de la población humana a lo largo de este siglo será difícilmente sostenible con los recursos a nuestro alcance (y curiosamente, quienes piensan que sobra gente en este planeta no suelen darse por enterados de que ellos también son gente).

En el fondo, la moda de lo natural puede acabar rindiendo una inesperada ventaja social. Y es que, si aumentan las capas de población acomodada dispuestas a gastar una fortuna en productos “orgánicos”, tal vez los convencionales sean más accesibles para la población general. Imagino que los economistas tendrán un término para esto: un furor por un producto caro (ejemplo: iPhone) puede abaratar aún más los sustitutivos baratos (ejemplo: los demás), y esto sería bueno en el caso de los alimentos, ya que las diferencias nutricionales y medioambientales entre un alimento “orgánico” y otro convencional son, en el mejor de los casos, mínimas.

Pero aún más allá, la comida en píldoras aún es un asunto pendiente. O para ser más precisos, alimentos preparados baratos, completos y saludables que puedan aprovechar otras fuentes alternativas de nutrientes. En este paradójico planeta, el furor por lo “natural” coexiste en total armonía con la pasión por la fast food. Pero no es un secreto que la comida rápida no suele ser la opción más equilibrada.

Los tipos de Soylent han detectado este hueco, y han tenido una de las ideas más interesantes de los últimos tiempos. Si son cinéfilos o aficionados a la ciencia ficción, el nombre de Soylent les resultará familiar. Soylent Green era el título original de una película de 1973 protagonizada por Charlton Heston y Edward G. Robinson, y traducida aquí por alguien que se creía poeta como Cuando el destino nos alcance. La traducción es aún más penalmente castigable teniendo en cuenta que Soylent Green no era una alegoría de nada, sino el nombre de la clave de la trama, el único alimento común disponible en un mundo hiperpoblado.

Soylent. Imagen de Soylent.com.

Soylent. Imagen de Soylent.com.

No es realmente necesario que les reviente la película explicándoles cuál era la composición real del Soylent, dado que este detalle no aparecía en la novela de Harry Harrison que inspiró la película. En el libro, el alimento se fabricaba con soja (soy) y lentejas (lentils), lo que daba origen a su nombre. Ahora, la idea ha sido recogida por una empresa de Los Ángeles que fabrica un preparado líquido al que han denominado precisamente Soylent. Su objetivo es ofrecer un alimento barato ya preparado, completo, equilibrado y saludable, una opción para los que no tienen interés por la cocina o tiempo para dedicarle.

Soylent tiene además la osadía de revelar en la portada de su web que, aunque todos sus ingredientes (proteína de soja, aceite de algas, isomaltulosa, vitaminas y minerales) son de origen natural, algunos de ellos se producen industrialmente (es decir, que existen en el campo, pero no se cosechan, sino que se fabrican). No estoy seguro de que esto sea lo más acertado como estrategia comercial, pero alguien tiene que decir que la obtención de ciertos compuestos en biorreactores es más sostenible y medioambientalmente responsable que su cultivo. Les deseo suerte con esta aventura que abre brecha en un campo largamente olvidado como es la innovación alimentaria (NO confundir con la culinaria).

Es por todo esto que me ha llamado la atención un artículo aparecido en el Times of India a propósito de un estudio a su vez publicado en la revista IUCrJ de la Unión Internacional de Cristalografía. Un equipo de investigadores de India, EEUU, Japón, Canadá y Francia ha resuelto la estructura del cristal de una proteína concreta. Algunas sustancias pueden formar cristales, como la sal común, y los químicos estudian su estructura para saber cómo se organizan las moléculas en el cristal.

Cucarachas 'Diploptera punctata'. Imagen de Toronto University.

Cucarachas ‘Diploptera punctata’. Imagen de Toronto University.

En este caso se trata de una proteína procedente de la especie Diploptera punctata, la única cucaracha vivípara, es decir, que alumbra crías vivas en lugar de poner huevos. Lo peculiar de esta proteína es que se encuentra naturalmente formando cristales en un fluido que la madre produce para alimentar a su progenie; es decir, leche. Los científicos aislaron el cristal directamente del intestino de un embrión, toda una proeza técnica, ya que los estudios de este tipo suelen hacerse con cristales producidos in vitro.

Pero lo realmente peculiar de esta proteína es que se trata de un alimento fantástico: según los investigadores, un solo cristal contiene tres veces más energía que una masa equivalente de leche de búfala, a su vez más energética que la leche de vaca. Según dijo al Times of India el coautor principal del estudio, Sanchari Banerjee, “los cristales son como una comida completa: tienen proteínas, grasas y azúcares. Si miras su secuencia, tienen todos los aminoácidos esenciales”. Y aún más: los cristales van suministrando proteína a medida que se digieren, por lo que es un alimento de liberación lenta.

Claro que ordeñar cucarachas no es una opción viable. Pero los investigadores han obtenido la secuencia del gen que produce la proteína, con el objetivo de introducirlo en levaduras y utilizar estos organismos para fabricar grandes cantidades en biorreactores, como se hace hoy con otros muchos compuestos.

Está claro que la idea no será muy popular. Ya hay enorme resistencia a la propuesta de la FAO y de otras instituciones de extender el consumo de insectos, como para hablar de leche de cucaracha sin provocar el vómito general. Pero si algo les importa esto, recuerden: el furor de los alimentos “orgánicos” es una moda elitista en un primer mundo sobrado de recursos, algo muy parecido a un bolso de Gucci; hace lo mismo que otro bolso cualquiera, pero por más dinero. Lo que necesitamos para asegurar el futuro son soluciones sociales. Y aquí hay uno dispuesto a probar el Soylent, la proteína de cucaracha o cualquier otra innovación que ayude a que en este mundo no sobre nadie.

China termina su inmenso buscador de aliens

A partir de septiembre, la atención de todos aquellos interesados en la búsqueda de vida alienígena inteligente se volverá hacia un remoto rincón del condado chino de Pingtang, en la provincia de Guizhou. Allí, el Observatorio Astronómico Nacional de la Academia China de Ciencias acaba de anunciar la colocación del último de los 4.450 paneles triangulares del Telescopio Esférico de Apertura de 500 Metros (conocido por sus siglas en inglés como FAST), el que desde ahora es el mayor radiotelescopio del mundo de plato único y reflector primario fijo.

El radiotelescopio FAST (China). Imagen de NAOC.

El radiotelescopio FAST (China). Imagen de NAOC.

El telescopio será un instrumento de investigación astronómica abierto a la colaboración internacional en todo tipo de proyectos. Sin embargo, sus responsables han precisado que uno de sus objetivos será la búsqueda de posibles señales de radio de origen inteligente, emulando a la que hasta ahora ha sido la mayor instalación del mundo del mismo tipo, el radiotelescopio de Arecibo en Puerto Rico, de 300 metros de diámetro.

Aunque la construcción ha durado cinco años, con una inversión de 167 millones de euros, el origen del proyecto se remonta a 1994. La idea era seguir el modelo de Arecibo, donde el plato esférico está acostado en una hoya cárstica natural, lo que facilita la construcción, el drenaje y el mantenimiento. Los ingenieros chinos recorrieron el país hasta dar con un paisaje similar, una remota hondonada sin apenas interferencias de radio donde 65 aldeanos vivían sin electricidad y desconectados del mundo.

Naturalmente, los aldeanos debieron ser desalojados, junto con casi otros 10.000 que vivían en los alrededores. Y naturalmente, tratándose de China, los medios oficiales informaron de lo contentos que estaban los habitantes locales de abandonar sus hogares para dejar paso a aquella gran obra de ingeniería y ciencia. Según la agencia Xinhua, “los habitantes de las comunidades cercanas admiraron su suerte, diciendo que debían estar agradecidos a los aliens”. Los aldeanos fueron reubicados en otras poblaciones.

El FAST tiene algunas diferencias con Arecibo. En primer lugar, el reflector primario de Puerto Rico es totalmente fijo y esférico, mientras que la superficie del FAST es deformable en parábola, como los platos de los radiotelescopios orientables. En realidad esto reduce la apertura efectiva (la superficie útil) a algo más de 300 metros. Es decir, que si estuviera en España, probablemente se le llamaría el radiotelescopio de las dos mentiras: ni es esférico, ni tiene 500 metros de apertura. Existe otro radiotelescopio individual aún mayor, el RATAN-600 de Rusia, de 576 metros de diámetro, pero este no está compuesto por una superficie única, sino por 895 paneles rectangulares orientables por separado.

Vista parcial del radiotelescopio de Arecibo (Puerto Rico). Imagen de Javier Yanes.

Vista parcial del radiotelescopio de Arecibo (Puerto Rico). Imagen de Javier Yanes.

Para que se hagan una idea de la comparación de dimensiones entre estos telescopios, he hecho esta composición de imágenes de Google Earth, todas ellas correspondientes a una altura del punto de vista de dos kilómetros. Para apreciar la escala, incluyo una imagen de lo más próximo que tenemos por aquí, la estación de la Deep Space Communications Network en Robledo de Chavela (Madrid), y añado también una vista del centro de Madrid y otra del puerto de Barcelona a la misma escala.

Comparación de tamaños a escala del FAST, Arecibo, RATAN-600, la estación de seguimiento de Robledo de Chavela, el centro de Madrid y el puerto de Barcelona. Imágenes de Google Earth, altura del punto de vista: dos kilómetros.

Comparación de tamaños a escala del FAST, Arecibo, RATAN-600, la estación de seguimiento de Robledo de Chavela, el centro de Madrid y el puerto de Barcelona. Imágenes de Google Earth, altura del punto de vista: dos kilómetros.

El FAST comenzará próximamente sus primeras pruebas para la puesta a punto y el debugging, y está previsto que en septiembre comience a operar. Con esta gran instalación, China prosigue en su revolución científica que pretende situar al país a la cabeza de la ciencia mundial en 2049, con el centenario de la fundación de la República Popular. Esperemos que también mejore la transparencia informativa para que, si algún día realmente llegan a encontrar algo que pueda ser un indicio de algo, todos podamos enterarnos.

¿Fabricamos una célula humana o viajamos a Alfa Centauri?

Hoy en día, obtener una célula humana gobernada por un genoma sintético está tan al alcance de nuestra tecnología como viajar a Alfa Centauri. Y no digamos ya un “ser humano de laboratorio”, como se está publicando por ahí. Esto es hoy tan viable como fabricar los androides de la saga Alien, o los robots de Inteligencia Artificial. O para el caso, construir la Estrella de la Muerte.

Una célula de piel humana (queratinocito). Imagen de Torsten Wittmann, University of California, San Francisco / Flickr / CC.

Una célula de piel humana (queratinocito). Imagen de Torsten Wittmann, University of California, San Francisco / Flickr / CC.

Para quien no sepa de qué estoy hablando, resumo. A mediados del mes pasado, el New York Times divulgó la celebración de una reunión “privada” en la Facultad de Medicina de Harvard, que congregó a unos 150 expertos para debatir sobre la creación de un genoma humano sintético. Solo por invitación, sin periodistas y sin Twitter. Como no podía ser de otra manera, esto inflamó las especulaciones conspiranoicas en internet: los científicos quieren crear seres humanos “de diseño” al margen de la ley y la ética.

Pero para quien sepa cómo suelen funcionar estas cosas, todo tenía su explicación. Aún no se había hecho pública la propuesta formal, que era precisamente uno de los objetivos de la reunión, y que estaba en proceso de anunciarse en la revista Science. No es un caso de conspiración, sino de torpeza: los organizadores deberían haber imaginado cuáles serían las reacciones. Claro que tal vez era eso lo que buscaban; un poco de intriga con fines publicitarios nunca viene mal.

Por fin, la propuesta se publicó en Science el pasado viernes. El llamado Proyecto Genoma Humano – Escritura (PGH-escritura) nace con la idea de impulsar el progreso en la construcción de largas cadenas de ADN. Como dice la propia propuesta, “facilitar la edición y síntesis de genomas a gran escala”.

El objetivo primario del PGH-escritura es reducir más de mil veces los costes de fabricación y ensayo de grandes genomas (de 0,1 a 100.000 millones de pares de bases) en líneas celulares en los próximos diez años. Esto incluirá la ingeniería de genomas completos en líneas celulares humanas y otros organismos de importancia en salud pública y agricultura, o de aquellos necesarios para interpretar las funciones biológicas humanas; es decir, regulación génica, enfermedades genéticas y procesos evolutivos.

La biología sintética marca una nueva era en la ciencia de la vida: después de descubrir, recrear para crear. Naturalmente, esto no implica que ya esté todo descubierto. Pero hoy ya conocemos lo suficiente, y disponemos de la tecnología necesaria, como para hacer lo que el género humano lleva haciendo cientos de miles de años: aprovechar los recursos disponibles para fabricar piezas con las que construir dispositivos. Y quien tenga alguna objeción a esta práctica, que apague de inmediato el aparato en el que está leyendo estas líneas.

Dado que en la célula todo procede del ADN, la biología sintética busca reinventar el genoma. En el primer escalón de esta ingeniería se encuentran las bacterias, organismos simples unicelulares, sin núcleo y con solo un pequeño cromosoma circular, una cinta de ADN unida por sus extremos.

Como conté hace un par de meses, un equipo de investigadores dirigido por el magnate de la biotecnología J. Craig Venter lleva varios años tratando de construir un cromosoma bacteriano cien por cien artificial que sea capaz de dar vida a una bacteria a la que se le ha extirpado el suyo propio. Este es un logro de enorme complejidad técnica, aunque hoy al alcance de la mano.

Pero de la célula procariota, como la bacteriana, a la eucariota, como las nuestras, el salto es cósmico. Nuestras células custodian su ADN en un núcleo enormemente complejo, donde el ADN está enrollado y vuelto a enrollar con la ayuda de unas complicadas estructuras empaquetadoras que lo condensan o lo descondensan según lo necesario en cada momento. Ya expliqué aquí que cada una de nuestras células contiene un par de metros de ADN. A lo largo del ciclo que lleva a la división en dos células hijas, cada cromosoma fabrica una copia de sí mismo, que luego se separa de la original para que cada célula resultante tenga su juego. Y esto para un total de 23 pares de cromosomas dobles. Frente a los 531.000 pares de bases de la bacteria de Venter, el genoma humano tiene unos 3.000 millones; es decir, es más de 5.600 veces más largo.

La idea de construir genomas humanos estaba ya presente antes incluso de lo que ahora tal vez deberá llamarse el Proyecto Genoma Humano – Lectura. En 1997 se publicó el primer microcromosoma humano sintético, un pequeño elemento construido a imagen y semejanza de nuestros cromosomas, con capacidad para añadirse a los normales de la célula. Así que la biología sintética humana lleva ya funcionando más de un par de decenios.

Claro que, por todo lo dicho arriba, la conclusión de muchos investigadores es que el sistema cromosómico humano es demasiado complejo como para que sea posible y merezca la pena recrearlo con nuestro conocimiento actual, por lo que la vía de los cromosomas sintéticos no ha prosperado demasiado. Hoy los esfuerzos se centran más en modificar que en crear: sustituir grandes fragmentos de ADN para corregir, mejorar o investigar. Un campo que lleva también décadas explorándose con diferentes herramientas y bajo distintos nombres, incluyendo el de terapia génica.

Así pues, nada nuevo bajo los fluorescentes del laboratorio. Nada en lo que no se esté trabajando ya en innumerables centros de todo el mundo, sin cornetas ni pregones. ¿En qué se basa entonces la novedad del proyecto? Lo que pretenden los investigadores es crear un marco que permita estructurar nuevas colaboraciones y concentrar recursos, para que sea posible sintetizar y manejar fragmentos de ADN cada vez más grandes. En un futuro no muy lejano, es concebible que se llegue a disponer de genotecas sintéticas (en el argot llamadas librerías, aunque sería más correcto hablar de bibliotecas) del genoma humano completo: todo el ADN de los 24 tipos de cromosomas humanos (22 autosomas, más el X y el Y) construido a partir de sus bloques básicos y repartido en trozos en diferentes tubitos, en un formato que permita utilizar grandes fragmentos como piezas de recambio.

Pero olvídense de la idea de una célula humana funcionando con un genoma “de laboratorio”. Esto es ciencia ficción y continuará siéndolo durante muchos años. Y los replicantes son hoy algo tan lejano como Alfa Centauri. ¿Y por qué Alfa Centauri? No es un ejemplo elegido al azar. Mañana lo explicaré.

Vídeo en streaming a través de la carne

Tal vez recuerden una película de los años 60 titulada Viaje alucinante (Fantastic Voyage), en la que un submarino y su tripulación científica eran reducidos a un tamaño microscópico para introducirse por vía intravenosa (si no recuerdo mal) en el organismo de un tipo y salvarle la vida. Y quienes no la recuerden tal vez tengan pronto la ocasión de conocerla, si se confirma un posible remake que al parecer dirigirá Guillermo del Toro. Esto sin contar la inevitable recreación que hicieron Los Simpson.

Imagen de Twentieth Century Fox.

Imagen de Twentieth Century Fox.

No vengo a contarles que la premisa de la película está más cerca de hacerse realidad, pero sí una parte de ella: la posibilidad de introducir un sumergible –no tripulado, claro– en el cuerpo de alguien, dirigirlo a distancia desde el exterior y que transmita en directo vídeo en streaming de alta definición mostrándonos lo que ocurre por nuestros entresijos.

Esto ya no resulta tan descabellado. En los últimos años se viene hablando de las píldoras digitales, microchips que pueden tragarse y monitorizar los parámetros deseados dentro del organismo antes de ser expulsados por la puerta de salida habitual. Por otra parte, ciertos aparatos implantados en el interior del organismo ya pueden ser controlados desde el exterior a través de sistemas clásicos de ondas de radio. El uso del cuerpo humano como medio transmisor de ondas es un activo campo de investigación.

El problema con los sistemas actuales es que los seres vivos no somos muy buenos transmitiendo ondas de radio. Las frecuencias utilizables para aparatos médicos ocupan una estrecha franja y el ancho de banda es pequeño, por lo que las máximas velocidades de transmisión alcanzables están en torno a las 50 k o kbps (kilobits por segundo); una conexión ADSL normal, pongamos de 10 megas, es 200 veces más rápida.

Sistema experimental de transmisión de datos a través de lomo de cerdo. Imagen de Singer et al. / Universidad de Illinois.

Sistema experimental de transmisión de datos a través de lomo de cerdo. Imagen de Singer et al. / Universidad de Illinois.

Un equipo de investigadores de la Facultad de Ingeniería de la Universidad de Illinois está ensayando una solución infinitamente más conveniente: ultrasonidos. Al menos desde hace un siglo, con la invención del sónar, los humanos hemos aprovechado que el sonido se transmite mucho mejor bajo el mar que las ondas de radio. ¿Y qué es nuestro cuerpo sino agua salada con algunos ingredientes añadidos?

Con este enfoque, los investigadores ensayaron la transmisión de datos por ultrasonido a través de tejidos animales, los cuales obtuvieron de la carnicería local: un lomo de cerdo y un hígado de vaca. En su estudio, disponible en la web de prepublicaciones arXiv.org, los autores cuentan que lograron velocidades de entre 20 y 30 megas (Mbps), “demostrando la posibilidad de transmisión de datos a velocidad de vídeo en tiempo real a través del tejido”, escriben.

Según Andrew Singer, coautor del estudio, “podemos imaginar un dispositivo que pueda tragarse para tomar imágenes del tubo digestivo, con capacidad de transmitir vídeo HD en directo por streaming a una pantalla externa, y de modo que el dispositivo pueda controlarse a distancia externamente por el médico”. Aunque no es la primera vez que se ensaya la transmisión de datos a través de tejidos animales, nunca antes se había hecho a tal velocidad. Dice Singer: “Esta velocidad de transmisión es suficiente, por ejemplo, para ver Netflix”. La pega es que aún habrá que estudiar los posibles efectos de la transmisión de ultrasonidos a través de tejidos vivos.