Archivo de la categoría ‘Tecnología’

«Seguir sin agencia espacial es perder cuatro años más»

Vía libre a ExoMars 2020, la segunda fase del gran proyecto europeo de exploración marciana. Esta fue la decisión tomada la semana pasada por el Consejo Ministerial de la Agencia Europea del Espacio (ESA), entidad participada por 22 países (y NO dependiente de la UE), entre ellos este en el que estoy ahora sentado.

Ignacio Arruego, ingeniero del INTA, junto a un modelo de Schiaparelli. Imagen de I. A.

Ignacio Arruego, ingeniero del INTA, junto a un modelo de Schiaparelli. Imagen de I. A.

Les pongo en antecedentes: en marzo de este año se lanzó la primera fase de ExoMars, un proyecto nacido de la colaboración entre la ESA y Roscosmos, la agencia espacial rusa. Este primer volumen constaba a su vez de dos fascículos: primero, la Trace Gas Orbiter (Orbitador de Gases Traza o TGO), un satélite destinado a estudiar los gases raros de la atmósfera marciana con especial atención al metano, posible signo de vida.

Segundo, Schiaparelli, un platillo volante de un par de metros que debía posarse en el polvo de Marte para catar el ambiente, pero que sobre todo debía servir de ensayo general para la segunda fase. Previsto para 2020, el segundo volumen de ExoMars pretende poner un vehículo rodante o rover en el suelo marciano.

Además de su carácter científico y tecnológico, la misión ExoMars tiene bastante de revancha histórica; porque hasta ahora el nuevo mundo marciano tiene un dueño exclusivo, Estados Unidos. Como ya he repasado aquí y en otros medios, las misiones de aterrizaje en Marte han tenido una tasa de éxito inusualmente baja en comparación con los proyectos a otros destinos, como la Luna o Venus, pero este premio de lotería no ha estado muy repartido: mientras la NASA ha dado en el clavo en la gran mayoría de sus intentos, Rusia y Europa han fracasado. La primera solo logró 14,5 segundos de transmisión con su sonda Mars 3 hace 45 años. Por su parte, Europa perdió en 2003 su Beagle 2, y el pasado octubre Schiaparelli se estampó contra su objetivo.

Uno de los afectados directamente por este reciente desastre es Ignacio Arruego, ingeniero del Instituto Nacional de Técnica Aeroespacial (INTA) responsable del equipo que desarrolló el Sensor de Irradiancia Solar (SIS). Este aparato, que debía medir la transparencia de la atmósfera de Marte (la luz del sol que llega a su superficie), formaba parte del instrumento principal de Schiaparelli, el DREAMS (Dust Characterisation, Risk Assessment, and Environment Analyser on the Martian Surface). El equipo del INTA participa también de forma destacada en la instrumentación del rover de ExoMars 2020.

Portada de 'El medallón de Santiago', novela de Ignacio Arruego.

Portada de ‘El medallón de Santiago’, novela de Ignacio Arruego.

Y por cierto, aprovecho la ocasión para contarles que, entre proyecto y proyecto, Arruego también encuentra algún rato para escribir. Su novela de debut, El medallón de Santiago, es una intriga con trasfondo histórico muy viajero que cuenta la investigación de sus dos protagonistas en busca de un antiguo y misterioso medallón que perteneció al apóstol Santiago.

Arruego me dice que está satisfecho con la decisión del Consejo Ministerial de la ESA de mantener la financiación de ExoMars. Pero no tanto con las palabras del ministro Luis de Guindos, que presidió la reunión debutando en este campo, tras asumir en el nuevo gobierno las competencias del sector espacial que antes recaían en Industria. Una carencia clásica de España es la falta de una agencia espacial, algo que tienen las principales potencias con actividades en este terreno. Según Arruego, las declaraciones de Guindos tras la reunión afirmando que España no necesita una agencia espacial han sentado muy mal en el sector. Esto es lo que me ha contado:

¿Por qué Guindos no quiere una agencia española del espacio?

Es gracioso, porque en cambio sí reconocía que hace falta coordinación entre todos los actores espaciales en España. Pues eso es precisamente, entre otras muchas cosas, lo que haría una agencia. Yo creo que siguen pensando que supondría un coste, y no se dan cuenta de que realmente existen ya todos los actores necesarios en España para hacer una agencia de verdad, ¡y por tanto una buena coordinación podría incluso disminuir gasto! Debería ser no un mero órgano gestor, sino una agencia con capacidad técnica y tecnológica, que defina y desarrolle programas propios tirando de la industria nacional, y estrategias internacionales y especialmente en la ESA; que aúne ingeniería de sistemas, I+D tecnológico y científico, la gestión económica, las relaciones con la ESA… En fin, una Agencia con mayúsculas.

Una pena. Lo considero otra oportunidad perdida por la falta de visión de nuestros políticos, sin duda mal asesorados. Otros cuatro años perdidos para que España termine de situarse en el mapa espacial internacional.

¿Hay nuevos datos sobre qué le ocurrió a Schiaparelli?

Como ya sabrás, se produjeron fundamentalmente dos eventos que provocaron la colisión: la suelta prematura del paracaídas y el corto encendido de los retrocohetes. Se ha especulado mucho sobre un fallo del altímetro radar, pero no parece estar allí el problema. Analizada la telemetría de la Unidad de Medida Inercial (IMU) que mide las aceleraciones de la nave durante el descenso, se observa que hay un breve lapso de tiempo (inferior a un segundo) en el que una de las medidas está saturada. Dado que el ordenador va calculando la orientación de la nave en base a las medidas acumuladas de esta IMU, durante el tiempo que ésta se satura no dispone de una información fidedigna. Ese dato de la IMU te permite saber cómo está orientada la nave respecto al suelo, y el radar te da la distancia al mismo según avanza la nave. Al estar equivocado el dato de la orientación, la nave llegó a obtener un valor que indicaba que la distancia real (en vertical) al suelo era negativa. Es decir, que había aterrizado. Y por eso cortó los retrocohetes.

Otra cosa que hizo, y esto es curioso, fue encender DREAMS, la estación meteorológica que transportaba y en la que participaba el INTA. DREAMS no debía encenderse hasta después del aterrizaje, pero como el ordenador pensó que había aterrizado aún estando a unos tres kilómetros de altura, nos encendió. Hay unos 40 segundos de telemetría relativa al estado de DREAMS, que era cien por cien nominal. Podemos decir que hemos llegado a Marte, pero poco rato.

¿Se ha averiguado algo sobre cuál fue la causa de ese error de percepción de Schiaparelli?

Aún se desconoce, y dudo que llegue a conocerse con un 100% de seguridad. La nave sufría unas aceleraciones digamos que laterales mayores de lo esperado pero, ¿por qué? ¿Rachas de viento fuerte? ¿Un mal despliegue del paracaídas? Eso no sé si llegaremos a saberlo con seguridad.

ExoMars 2020 sigue adelante, pero ¿en qué afectará el fracaso de Schiaparelli desde el punto de vista técnico?

La ESA trata de ser positiva en su análisis del resultado de ExoMars 2016. La realidad es que TGO está funcionando de momento según lo esperado, lo cual es un gran éxito. Y Schiaparelli, por mucho que suene a excusa, es cierto que era un módulo de demostración con el objetivo de permitirnos aprender a aterrizar en Marte. De alguna manera ha cumplido su misión en ese sentido, pues como ves se ha aprendido mucho de la telemetría enviada durante el descenso. Se reforzarán los ensayos a los elementos críticos y se revisarán algunas secuencias de tomas de decisiones. Se ha aprendido, sin duda.

¿Y este aprendizaje ofrecerá más garantías de éxito a la próxima fase?

Sí, en 2020 deberíamos ser capaces de aterrizar con más garantías. No es trivial, aún así. No sólo porque nunca lo es (el conocimiento de la atmósfera de Marte sigue siendo muy incierto), sino porque la nueva misión es bastante más pesada (algo así como el triple si no recuerdo mal), requiere el uso de dos paracaídas (uno hipersónico y otro subsónico), etcétera. Hay diferencias. Pero hay que ser optimista y sobre todo trabajar duro en los elementos críticos y en sus ensayos. Creo que irá bien.

¿Cuál es tu predicción sobre el futuro de las misiones tripuladas?

Como sabes, hay dos grandes corrientes de pensamiento en torno a cómo ir a Marte. Una pasa por ir llevando todo lo que nos hace falta para volver. Empezando por el combustible para el despegue de vuelta. Se barajan naves muy grandes, a menudo con ensamblajes en órbita porque la capacidad de despegue de la Tierra no daría para lanzarlas de una vez.

La otra aproximación pasa por emplear naves más pequeñas, tripulaciones muy reducidas, y hacer uso intensivo de ciertos recursos existentes en Marte. Por ejemplo, es posible generar el combustible allí para un despegue desde Marte, llevando sólo una pequeñísima parte de sus componentes (hidrógeno, en concreto), y obteniendo carbono y oxígeno de la atmósfera de Marte, rica en CO2.

Yo creo que hasta la fecha siempre se ha hablado más de la primera aproximación. Yo a día de hoy soy más partidario de la segunda. Creo que es la más realista para un primer viaje tripulado, y que terminará imponiéndose. Probablemente la tecnología permita tenerla lista en unos 15 años desde que se decida ponerse con ello. Pero nadie se ha puesto seriamente aún. Existe la Iniciativa Mars Direct desde hace la tira, pero nunca ha sido el enfoque adoptado por las grandes agencias, ni parece que lo sea ahora por gente como Elon Musk. Creo que si hay un cambio de enfoque veremos humanos en Marte bastante antes de la mitad del siglo. Si no lo hay, ya veremos.

¿Son un placebo los botones de los semáforos?

Recuerdo un cuento de Richard Matheson titulado Button, Button, en el que un extraño ofrecía a una pareja con graves problemas económicos la posibilidad de ganar una gran cantidad de dinero simplemente pulsando el botón de una caja. Pero si decidían hacerlo, alguien a quien ellos no conocían iba a morir. Mientras discutían el dilema moral al que se enfrentaban, la mujer decidía abrir la caja y descubría que estaba vacía; bajo el botón no había ningún mecanismo.

La historia me ha venido a la mente a propósito de un artículo publicado hace unas semanas en el New York Times sobre los botones placebo. A algunos les llegará de sorpresa, a otros no, y muchos siempre lo habrán sospechado: algunos de los botones que encontramos en los ascensores y que sirven para cerrar las puertas, o que en los semáforos nos invitan a pulsar para esperar el verde, o los mandos que regulan el termostato de la temperatura en las oficinas, tal vez sean más falsos que un Mondrian pintado por mi hijo de cuatro años.

Un botón de semáforo. Imagen de Wikipedia.

Un botón de semáforo. Imagen de Wikipedia.

Según escribe Christopher Mele en el diario neoyorquino, en EEUU los botones de cerrar puertas en los ascensores funcionaban hasta 1990. Entonces se aprobó en aquel país una ley de discapacidad que obligaba a dejar un margen suficiente para que las personas en silla de ruedas o con otras dificultades de movilidad tuvieran tiempo suficiente de entrar en los acensores, lo que obligó a deshabilitar los botones de cerrar puertas. Desde entonces, al menos allí, estos pulsadores solo hacen algo si se introduce la llave que usan los empleados de mantenimiento.

Algo similar ocurre con los termostatos de muchas oficinas, que son de pega. Según explica el artículo, el simple hecho de hacer creer a los trabajadores que pueden regular la temperatura para sentirse más a gusto les hace sentirse más a gusto, aunque la manipulación del termostato no tenga ningún efecto real sobre la temperatura. Según una fuente del sector citada por Mele, un falso termostato reduce en un 75% las llamadas a la asistencia técnica.

Este último dato ilustra por qué esta existencia de botones falsos no se contempla como un resto del pasado a eliminar, sino que incluso se continúa fomentando. ¿Y por qué? En 1975, una psicóloga llamada Ellen Langer publicó un célebre estudio en la revista Journal of Personality and Social Psychology en el que acuñaba una expresión, la «ilusión del control». Langer demostraba que muchos jugadores actúan u optan de determinadas maneras porque piensan que eso aumenta sus posibilidades de ganar, cuando en realidad esas acciones u opciones no tienen ningún efecto.

Pensemos en la Lotería de Navidad, ya tan próxima: muchos eligen números que representan fechas concretas, que les resultan significativos o que les parecen «bonitos». Pero en realidad, todos los números del bombo tienen teóricamente la misma probabilidad de resultar premiados.

Esta ilusión de tener el control sobre un resultado que realmente escapa a nuestro poder es también la que justifica la existencia de los botones placebo: como en el caso de los termostatos, resulta satisfatorio pensar que tenemos el dominio de la situación, ya sea regular la temperatura de la oficina, cerrar las puertas del ascensor o detener el tráfico para cruzar la calle. Todo ello apela a lo que los psicólogos llaman el sentido de agencia, el sentimiento de que tenemos control sobre nuestras acciones y sus consecuencias.

El último ejemplo de los que he citado es mi favorito. Uno, como padre responsable, trata de enseñar a sus criaturas a no morir atropelladas, instruyéndoles sobre cómo cruzar la calle en tiempo y forma. Siempre que hay uno de esos botoncitos verdes que dicen «peatón pulse – espere verde», les digo que pulsen. Lo cual hacen encantados, ya que a los niños les chifla apretar botones. Y si piensan que los coches se han parado gracias a ellos, entonces ya no caben en sí de orgullo. Pero uno siempre se pregunta: ¿realmente ese botón hace algo?

Según parece, no hay una respuesta única. El artículo de Mele cuenta que en su día los botones de los semáforos se colocaron con una finalidad genuina, para ayudar a regular el tráfico. Pero con el tiempo, cuando se introdujo el control por ordenador, dejaron de ser funcionales. Según Mele, en Nueva York hoy solo quedan unos pocos que responden a quien los pulsa.

Un estudio publicado en 2013 por investigadores de Microsoft y la Universidad de Michigan enfocaba el estudio de estos artefactos desde el punto de vista de la interacción humano-máquina para acuñar otra expresión: «engaño benevolente», una especie de mentira piadosa que beneficia al usuario. Supuestamente, el hecho de apretar el botón de los semáforos no solo satisface el sentido de agencia, sino que al hacerlo el peatón tenderá a esperar con más paciencia el cambio de semáforo y no se lanzará a tratar de sortear el tráfico en rojo.

Un artículo de la BBC publicado en 2013 explicaba que el sistema informatizado de regulación de tráfico empleado en Reino Unido, llamado SCOOT (siglas de Split Cycle Offset Optimisation Technique), pone los botones en modo placebo durante el día, cuando el tráfico es intenso, y los activa por la noche.

Por otra parte, este trabajo de la ingeniera industrial Emma Holgado nos cuenta que el SCOOT se emplea también en Madrid, lo que nos lleva a una clara conclusión: si viven en Madrid (y supongo que en Barcelona y otras ciudades del país), apretar el botón durante el día no les servirá de nada. Pero háganlo, que los placebos también son eficaces incluso cuando sabemos que lo son. Y si van con niños, no les quiten la ilusión de pensar que son ellos quienes detienen el tráfico. Se sienten casi como superhéroes.

Pasen y vean cómo cambia el mundo en 32 años

¿Quieren ver cómo la «ciudad del Pocero» de Seseña y su infame cementerio de neumáticos surgen de la nada? ¿O cómo el desierto de El Ejido ha ido cubriéndose de plástico? ¿O cómo la valla de Melilla dibuja una frontera que antes era indistinguible? ¿O cómo brota en el mapa el aeropuerto de Castellón como si fuera una seta en otoño? ¿O cómo han crecido Valencia y su puerto desde 1984? ¿O cómo en Rivas Vaciamadrid aparece una ciudad sobre los sembrados?

El mar de plástico de los invernaderos de El Ejido. Imagen de Google.

El mar de plástico de los invernaderos de El Ejido. Imagen de Google.

Google acaba de actualizar la herramienta Timelapse de Google Earth Engine, un sistema creado en 2013 que muestra la progresión del paisaje desde 1984 hasta 2016 combinando más de cinco millones de imágenes tomadas por cinco satélites con participación de la NASA, la ESA y el Servicio Geológico de EEUU.

La nueva actualización recién publicada incluye cuatro años más de imágenes y nuevas fotografías actuales que aumentan la resolución de las vistas. El nivel de detalle no es comparable al de Google Earth, así que olvídense de ver cómo se construyó su casa. Pero es suficiente para apreciar los grandes cambios que transforman el paisaje.

Lo que traigo aquí son algunos ejemplos destacados en distintos lugares de España donde el cambio ha sido especialmente intenso, pero Timelapse da para pasar una tarde recorriendo el planeta y contemplando cómo surgen las ciudades en las arenas de los Emiratos Árabes, cómo Las Vegas devora el desierto circundante, cómo se reducen los glaciares o cómo el mar de Aral va secándose a causa del masivo proyecto de irrigación emprendido por la antigua URSS. Los responsables de Google Earth Engine han publicado vídeos con algunos de los ejemplos más brutales en su canal de YouTube.

Para ver las animaciones hay que pulsar el botoncito de «play» en el rincón inferior izquierdo. Bajo el cartel del año hay otro mando para regular la velocidad.

La «ciudad del Pocero» de Seseña aparece con forma casi triangular, lamiendo por la derecha la también nueva autopista R-4. Al otro lado de esta carretera surge el cementerio de neumáticos que ardió la pasada primavera.

El crecimiento del mar de plástico en El Ejido:

La valla de Melilla:

Valencia y su puerto:

Aeropuerto de Castellón:

Rivas Vaciamadrid, una de las ciudades españolas que más han crecido en las últimas décadas:

Los Nobel de Física y Química premian los chips prodigiosos

Si no fuera porque no es así como funciona, se diría que los comités de los Nobel de Física y Química de este 2016 se han puesto de acuerdo para premiar un mismo campo, las nanocosas del nanomundo. Dirán ustedes que gran parte del trabajo de la física, la química y la biología consiste precisamente en indagar en todo aquello que no podemos ver a simple vista, y no se equivocarán. Si fuera posible miniaturizarnos –esta semana volví a ver aquella divertida película de Dante y Spielberg, El chip prodigioso–, la naturaleza no tendría misterios para nosotros. No habría nada que investigar; bastaría con abrir los ojos y ver qué pasa.

Fotograma de la película 'El chip prodigioso' (1987). Imagen de Warner Bros.

Fotograma de la película ‘El chip prodigioso’ (1987). Imagen de Warner Bros.

Pero dentro de todo ello, hay un área transversal de la ciencia que se dedica específicamente a explorar cómo es el paisaje a esa escala diminuta, cómo son sus montañas, valles y costas, y a fabricar aparatos que puedan desenvolverse en ese entorno de lo diminuto del mismo modo que lo hace un rover en Marte. No es un minimundo ni micromundo, ya que el prefijo «micro» comprende los tamaños en el rango de la célula y sus partes. La unidad de medida allí es el nanómetro, la millonésima de milímetro, y desde ahí hacia abajo. En algún momento, los científicos comenzaron a referirse a ese mundo añadiéndole un «nano»: nanotecnología, nanoingeniería, nanociencias.

Nuestro mundo tiene sus formas, lo que llamamos el relieve topográfico. Esas formas pueden cambiar a lo largo del tiempo debido a fuerzas de la naturaleza, pero siguiendo ciertas reglas: cuando en una montaña se ha horadado una cueva, un derrumbamiento podrá hacerla desaparecer, pero la montaña no puede deshoradarse y volver a quedar como estaba. Y un río no puede correr sobre la cumbre de una montaña.

Hay una rama de las matemáticas que estudia las formas, o topos, y cómo pueden transformarse unas en otras a través de transiciones permitidas: por ejemplo, se puede deformar, pero no cortar y pegar. Una hoja de papel puede convertirse en una silla de montar, pero no en una bola. La topología se aplica a áreas de las matemáticas como el álgebra y la geometría, pero también a la física.

El funcionamiento de la materia está relacionado con su estructura. Por ejemplo, un metal conduce la electricidad porque permite el libre movimiento de los electrones. Algunos físicos exploran las fronteras de ese nanomundo, los límites exóticos de la materia donde aparecen propiedades inusuales; por ejemplo, los semiconductores o los superconductores. Como los paisajes, esa materia tiene sus formas y sus reglas, lugares inaccesibles por donde un río no puede discurrir, o un electrón no puede moverse. De la aplicación de la topología a estas formas exóticas de la materia y a sus cambios (como de sólido a líquido) pueden aprovecharse algunas de esas propiedades raras. La capacidad de manipular y controlar a voluntad la conductividad de un material es la base de toda la tecnología electrónica que utilizamos hoy.

El Nobel de Física 2016 ha premiado a los británicos (los tres trabajando en EEUU) David Thouless, Michael Kosterlitz y Duncan Haldane por haber sentado en los años 70 y 80 las bases de esa topología de la materia exótica y de sus transiciones de fase. Por cierto que el padre de Kosterlitz, Hans, bioquímico, se quedó a un paso del Nobel como uno de los descubridores de las endorfinas.

En ese nanopaisaje, a partir de los años 80 algunos investigadores empezaron a construir máquinas, sistemas formados por piezas que se mueven cuando se les aplica energía, del mismo modo que una batidora gira cuando se enchufa a la red eléctrica. Las piezas de estas máquinas son moléculas, diseñadas con una forma específica que les permite desempeñar la función deseada una vez que ocupan su lugar, tal como hacen los ingenieros industriales. La primera de estas piezas, obra del francés Jean-Pierre Sauvage en 1983, era una simple cadena de dos eslabones que permitía el movimiento libre.

La nanoingeniería de máquinas se inspira en la propia naturaleza. Unos años antes habían comenzado a descubrirse los primeros nanomotores (máquinas rotativas) naturales, comenzando por el flagelo que emplean algunas bacterias para propulsarse en el agua y que consiste en un mecanismo giratorio. En 1991, el escocés Fraser Stoddart logró construir un nanoanillo que podía girar y desplazarse alrededor de un eje. Ocho años después, el holandés Bernard Feringa construía el primer nanomotor, una especie de ventilador de una sola aspa.

Sauvage, Stoddart y Feringa han sido premiados con el Nobel de Química 2016. Desde entonces se han construido nuevas nanomáquinas, como nanoascensores o nanocarretillas. Algunas de ellas se inspiran en mecanismos previamente inventados por la naturaleza; por ejemplo, nuestros músculos funcionan gracias a una nanomáquina deslizante, un sistema similar al que también sirve para que nuestras células expulsen al exterior ciertas sustancias, como moléculas de defensa contra infecciones.

Nanocoche Nanobobcat, de la Universidad de Ohio. Imagen de OU.

Nanocoche Nanobobcat, de la Universidad de Ohio. Imagen de OU.

Se espera que en el futuro una de las principales aplicaciones de las nanomáquinas sea la medicina. Como en El chip prodigioso, pero con un Dennis Quaid molecular. También servirán para usos como construir nuevos sensores y sistemas de almacenamiento de energía. Por el momento, una de las ramas más sorprendentes de la nanoingeniería es la fabricación de nanocoches, máquinas capaces de desplazarse sobre una superficie utilizando una fuente de energía, por ejemplo la luz.

De hecho, este año se celebrará en Toulouse (Francia) la primera carrera mundial de nanocoches, como expliqué con detalle en un reportaje a finales del año pasado. Varios laboratorios del mundo han presentado sus prototipos de lo más variado, como una versión nanoscópica de Los autos locos. Estaba previsto que la carrera se celebrara el 14 y 15 de este mes, pero los organizadores han decidido posponerla para dejar algo más de tiempo a las nanoescuderías para que pongan a punto sus modelos, que deberán correr sobre una pista de oro en el vacío a -268 ºC.

Cuernos sintéticos de rino, ¿solución o simple negocio?

Hoy traigo una muestra de que no todos aquellos interesados en que los rinocerontes continúen existiendo dentro de 20 años están convencidos de que la actual prohibición del comercio internacional de cuernos sea lo mejor para lograrlo. Quienes sí lo piensan, como la Born Free Foundation (BFF) de la que hablé ayer, alegan razones cuyo resumen general viene a ser que la legalización podría elevar la demanda, y el riesgo de esta posibilidad aconseja no tocar el veto vigente desde 1977.

Un rinoceronte blanco en el Parque Nacional de Meru (Kenya). Imagen de J. Y.

Un rinoceronte blanco en el Parque Nacional de Meru (Kenya). Imagen de J. Y.

Pero ¿ha funcionado el veto? Este gráfico, publicado en Science en 2013, muestra de un vistazo la evolución de la caza furtiva de rinos de 2000 a 2012.

poaching

Organizaciones como BFF alegan que hasta 2007 el veto estaba cumpliendo su función, ya que el furtivismo contra los rinos se mantenía a niveles muy bajos. Y que el ascenso vertiginoso a partir de 2008 es un fenómeno esporádico no relacionado con la demanda tradicional, sino provocado por la repentina moda en Vietnam de adquirir polvo de cuerno de rinoceronte como capricho caro de los nuevos millonarios.

Pero si los datos son objetivos, las interpretaciones son libres. ¿Realmente fue el veto lo que mantuvo el furtivismo a raya hasta 2007? ¿O fue simplemente la ausencia de demanda, ya que China había retirado en 1992 el cuerno de rino su farmacopea tradicional a raíz de su entrada en el CITES? Sin duda, el surgimiento de una nueva oleada de demanda a partir de 2008 disparó la matanza de rinos a pesar del veto. Por este motivo, hay quienes piensan que no hay pruebas suficientes para evaluar los efectos del veto ni mucho menos su posible modificación.

Entre estos se cuenta la ONG británica Save the Rhino International (STRI), la mayor entidad dedicada específicamente a la conservación de los rinocerontes, y uno de cuyos principales promotores fue Douglas Adams, autor de La guía del autoestopista galáctico. Según me cuenta Cathy Dean, directora de STRI, Suráfrica emprendió un exhaustivo estudio de 18 meses a cargo de un comité de expertos, con vistas a la posible presentación de una propuesta de legalización del cuerno de rino en la reunión del CITES que se celebra estos días en Johannesburgo. Sin embargo, finalmente la moción no fue presentada. Por este motivo la pequeña Suazilandia, que planeaba votar a favor de la propuesta para poder vender su stock de cuernos, decidió en el último momento presentar la suya propia de manera precipitada.

«Suráfrica no ha publicado los resultados del comité», dice Dean. «¿No sería útil para las partes del CITES, los 182 países, poder ver el informe del comité para poder tomar una decisión informada?», se pregunta. La visión de STRI es que se trata de una cuestión compleja con múltiples variables, y que por tanto no se puede liquidar con ideas preconcebidas o eslogans. «En SRTI aún no tenemos una postura definitiva sobre si legalizar el comercio internacional de cuerno de rino ayudaría a asegurar la supervivencia a largo plazo de las especies de rinos, o si aceleraría su extinción», concluye Dean. «Creemos que no hay suficientes pruebas disponibles para formarnos una opinión clara».

Dean confiesa no saber si realmente la legalización elevaría la demanda, una postura mucho más juiciosa que la de quienes afirman tajantemente que sí. Hoy por hoy, lo único que sabemos es que la demanda ha aumentado sin la legalización. Por ello, Dean considera que como mínimo el veto no es una varita mágica, y que la batalla deberá continuar en todos los campos donde se libra actualmente, desde la sabana hasta las calles de Vietnam.

En esta lucha se ha abierto recientemente un nuevo frente. Un puñado de compañías biotecnológicas han anunciado que pronto comenzarán a fabricar cuerno de rino artificial mediante nuevas tecnologías de bioimpresión en 3D. Cuando empresas como Pembient o Rhinoceros Horn anunciaron sus planes de poner a la venta este producto, muchos palidecieron, ya que este material abre un agujero legal no cubierto por el CITES (nota: las resoluciones del CITES afectan únicamente al comercio internacional, mientras que cada país es libre para legislar sobre el comercio interior).

La gran mayoría de las ONG, incluyendo BFF y STRI, se han manifestado en contra de la comercialización de este producto. No todas: Traffic, que lucha contra el comercio internacional de especies, fue más cauta al sugerir que esta vía no debería descartarse directamente sin un análisis más profundo.

No por casualidad, Matthew Markus, CEO de Pembient, está presente estos días en la reunión del CITES en Johannesburgo, según contó Business Insider. Pero la legitimidad de la aspiración de Markus de poner a la venta un producto que no es ilegal se tambalea con sus declaraciones. El empresario dijo a BI que reducir la demanda de cuerno «no sería ético», ya que «estas prácticas se basan en miles de años de tradición cultural; son mucho más viejas que Acción de Gracias».

Lo cual es un engaño deliberado, ya que Markus sin duda debe conocer que la nueva demanda vietnamita no guarda absolutamente ninguna relación con la medicina tradicional china, sino que es una moda de nuevos ricos nacida del rumor según el cual un expolítico de aquel país se había curado el cáncer tomando polvo de cuerno. Como he mencionado más arriba, el cuerno de rino ya no está presente en el recetario oficial publicado por la Administración Estatal de la Medicina Tradicional China. Las palabras de Markus revelan su lógico deseo de una demanda potente, escudado en un argumento falaz.

Por otra parte, y si la apertura al comercio de cuerno natural podría legitimar el producto ante sus consumidores (como me decía la portavoz de BFF), mucho más aún lo haría la puesta a la venta de un sucedáneo sintético. Mientras organizaciones como WildAid se empeñan en la ardua labor de convencer al público en el sureste asiático de que el cuerno de rinoceronte no tiene absolutamente ninguna propiedad terapéutica, psicotrópica ni afrodisíaca (su composición es la misma que la del pelo y las uñas), el efecto que tendría la venta de un sustituto artificial puede resumirse en una frase al estilo de eso que últimamente viene llamándose cuñadismo, pero en versión vietnamita: «¿Lo ves? Si no sirviera para nada, ¿crees que lo venderían los americanos?».

B. V. Larson: «Los autores de ciencia ficción somos cheerleaders de la innovación»

Mañana, 21 de septiembre de 2016, H. G. Wells habría cumplido 150 años.

Si volviese hoy, no nos encontraría viajando en el tiempo, volviéndonos invisibles o recuperándonos de una invasión marciana, pero sí descubriría que aún seguimos pensando, debatiendo y escribiendo sobre todo esto.

Y es que tal vez el mayor legado de los grandes maestros de la ciencia ficción sea su capacidad de haber sembrado ideas que se perpetúan ejerciendo una poderosa influencia, no solo en los autores posteriores, sino también en el propio pensamiento científico.

B. V. Larson. Imagen de YouTube.

B. V. Larson. Imagen de YouTube.

Mañana tocará hablar de Wells, pero hoy quiero abrir boca con uno de sus muchos herederos. Recientemente tuve ocasión de hacer esta breve entrevista al californiano B. V. Larson. Conocido sobre todo por su serie Star Force, Larson es un autor inexplicablemente prolífico que ha forjado su carrera por la vía de la autopublicación. Una elección que le ha funcionado de maravilla, a juzgar por su presencia habitual en la lista de Amazon de los más vendidos en ciencia-ficción.

Larson posee un fenotipo que interesa especialmente a este blog: es uno de los numerosos autores de ciencia-ficción que han surgido desde dentro, desde el mundo de la ciencia y la tecnología. En su caso, es profesor en ciencias de la computación y autor de un exitoso libro de texto que continúa reeditándose.

Según me cuenta, en un momento de su vida trabajó como consultor de DARPA, la agencia de investigación del Departamento de Defensa de EEUU, en la Academia Militar de West Point. Con todo este equipaje, Larson es el tipo ideal a quien hacerle algunas preguntas sobre la relación entre la ciencia y su versión ficticia.

¿Cómo se relaciona la ciencia-ficción con el progreso científico y tecnológico?

No hay duda de que la ciencia-ficción influye en la innovación, pero también lo contrario. En la mayoría de los casos, es difícil decir cuál de las dos comienza el proceso. Los autores de ciencia-ficción son futurólogos que leen las nuevas tendencias en la industria y la ciencia, convirtiéndolas en historias de ficción con extrapolaciones. A su vez, los ingenieros leen estas historias y obtienen inspiración. En otras palabras, para entender el proceso yo pensaría en el papel del escritor creativo y el mundo real de la ingeniería, ambos como partes de un ciclo de innovación.

¿Hay algunas épocas en las que esta influencia haya sido mayor?

Yo diría que la ciencia-ficción fue muy importante desde 1900 hasta la década de 1970, pero menos de 1980 a 2010. Solo ahora está volviendo a ser lo que fue. ¿Por qué? Porque en los 30 años entre 1980 y 2010, la mayoría de la ciencia-ficción que se leía ni siquiera intentaba ser técnica, sino que se centraba en cuestiones sociales. Esto está cambiando ahora, y la ciencia-ficción está volviendo a ser lo que fue originalmente y a recapturar el corazón de los ingenieros.

Se suele hablar del papel de los autores como profetas tecnológicos. ¿Hasta qué punto no predicen, sino que marcan el camino a seguir?

Los ingenieros son quienes merecen la mayor parte del crédito. Los escritores de ciencia-ficción sirven para inspirar, para atraer a la gente joven a expandir el mundo a través de la tecnología, más que para hacer posible lo imposible. Somos más bien cheerleaders, oradores motivacionales, más que poderosos magos. Puede parecer que predecimos el futuro, pero lo que realmente hacemos es estudiarlo y pensar sobre él para hacer predicciones lógicas.

¿Y cuáles serían ahora esas predicciones? ¿Habrá algo de esos avances típicos del género y siempre pendientes, como coches voladores, naves espaciales más rápidas, reactores personales…?

Yo diría que la mayor parte de esas áreas ya han tenido su oportunidad. Piensa en un avión de pasajeros: si volvieras a 1975 y subieras a un avión, la experiencia, la velocidad de vuelo y todo lo demás sería prácticamente igual que hoy. Esto es normal en tecnología. Una vez que una tecnología nueva y poderosa se hace realidad, hay un período de unos 50 años de innovación muy rápida, y después se frena. Con los aviones, pasaron menos de 40 años desde el primer vuelo de los hermanos Wright hasta el ataque japonés a Pearl Harbor con bombarderos. Poco después teníamos aviones volando a todas partes. Y después nada. No ha habido cambios reales en 40 años.

Entonces, ¿qué áreas están ahora en ese período de innovación rápida?

Yo esperaría grandes cambios en el área de la biología. Pastillas que te permitan vivir 10 o 20 años más. Órganos impresos en 3D para reemplazar los dañados. O quizás nanites [nanorrobots] que practiquen nanocirugía dentro de nuestro cuerpo. Implantes cibernéticos, ese tipo de cosas. En eso se centra mi serie Lost Colonies.

Drácula, Poe, el Kama Sutra y OK Go sobrevivirán al fin del mundo

No es que la música de OK Go sea de mi más especial predilección (como ya he manifestado aquí, mis preferencias suelen ir por otros sonidos), pero admiro lo que hacen estos cuatro tipos de Chicago. Adoro a la gente que camina en sentido contrario a los demás, a quienes se toman demasiadas molestias para algo que realmente no lo requiere, y a los que se enfrascan en algo anteponiendo la pasión al plan de negocio. Es decir, a quienes violan las tres leyes fundamentales del universo: la ley de la inercia, la ley del mínimo esfuerzo y la ley de la conservación de lo que sea.

Captura del vídeo de OK Go. Imagen de YouTube.

Captura del vídeo de OK Go. Imagen de YouTube.

Para quien aún no los conozca, explico que lo más distintivo de OK Go son sus vídeos. Entre tanta saturación de efectos digitales y realidad virtual, ellos se diferencian por organizar unas complejísimas coreografías reales, increíblemente sincronizadas, que a menudo se ruedan en un solo plano secuencia y que además en muchos casos juegan con la ciencia aplicada. Si les interesa descubrirlos, basta una simple búsqueda en YouTube. Pero hay un motivo para que hoy traiga aquí uno de sus clips, el de This Too Shall Pass.

Para este tema, organizaron un montaje al estilo de lo que en EEUU llaman una máquina de Rube Goldberg. Los que pasamos de los 40 tenemos aquí un equivalente cultural propio, los Grandes Inventos del TBO, cuyo principal artífice fue el dibujante catalán Ramón Sabatés.

Tanto Goldberg como Sabatés presentaban a un ficticio profesor (Lucifer Gorgonzola Butts en la versión americana, Franz de Copenhague en la española) que diseñaba unas complicadísimas máquinas cuyo resultado era una tarea muy tonta, fácilmente accesible por medios infinitamente más simples; por ejemplo, limpiar la boca con la servilleta. En el caso del vídeo de OK Go, el resultado final de su máquina es disparar un chorro de pintura a cada uno de los integrantes de la banda.

El motivo por el que hoy lo traigo aquí es que este clip de OK Go es el primer vídeo jamás codificado en forma de ADN. Ya he explicado aquí y en otros medios en qué consiste la codificación de archivos digitales en material genético: se diseña un sistema de conversión del código binario (unos y ceros) a las cuatro bases del ADN (A, T, G y C), se traduce el archivo deseado y se sintetiza una cadena de ADN con esa secuencia.

Y también he explicado por qué esta línea de investigación es interesante: los soportes digitales caducan rápidamente, bien porque se estropean, o bien porque aparecen otros formatos y soportes nuevos que dejan obsoletos a los antiguos. En cuanto a su conservación física, el ADN puede durar cientos de años, miles de años, incluso millones de años, según el sistema de almacenamiento elegido. Y en cuanto a su vigencia tecnológica, si de algo no cabe absolutamente ninguna duda es de que siempre vamos a seguir necesitando dispositivos de lectura de ADN. Las máquinas cambiarán, pero el ADN continuará siendo el mismo por los siglos de los siglos.

Entre los grupos de investigación que trabajan en esta línea se encuentra un equipo de Microsoft Research y la Universidad de Washington (EEUU). El pasado abril, los investigadores presentaron en un congreso la codificación de cuatro imágenes en forma de ADN. Ahora han anunciado un nuevo hito: la conversión a material genético de la Declaración Universal de los Derechos Humanos en más de 100 idiomas, los 100 libros de dominio público más descargados del Proyecto Gutenberg, la base de datos de semillas del proyecto Crop Trust y, claro está, el vídeo de OK Go en alta definición. En total, 200 MB; una ridiculez para los tamaños digitales, un gran salto para el almacenamiento en ADN.

Según Karin Strauss, la investigadora principal del proyecto en Microsoft, eligieron este vídeo de OK Go porque guarda paralelismo con el trabajo que ellos llevan a cabo. «Son muy innovadores y están reuniendo en su campo cosas diferentes de distintas áreas, y sentimos que estamos haciendo algo muy similar».

Naturalmente, la codificación en ADN tiene sus inconvenientes, y siempre los tendrá. Tanto escribir como leer una secuencia genética es mucho más lento que escribir o leer un archivo binario, y más costoso. En general el sistema no se contempla como para un uso inmediato de los datos en dispositivos móviles, sino para crear repositorios a largo plazo. Pero a cambio, la densidad de información que puede alcanzar el ADN es 100 millones de veces mayor que las cintas magnéticas empleadas hoy en los grandes centros de datos: según los investigadores de Washington, los datos que llenarían todo el volumen de un hipermercado en formato electrónico caben en un terrón de azúcar si se traducen a ADN.

Pero sobre todo, su enorme ventaja es la durabilidad. Si algún día llegara ese fin del mundo que tantas veces hemos contemplado desde la butaca y del que tanto llevan advirtiéndonos, difícilmente se salvarían los datos digitales. Suelen decirnos que en el mundo existen muchas copias de toda la información que volcamos en la red, como estas palabras que estoy escribiendo. Pero ¿cuántas son «muchas»? ¿Decenas? ¿Centenas? ¿Millares, como mucho? Cada una de esas copias está escrita en un sofisticado y frágil soporte electrónico. ¿Cuántos de ellos se salvarían en caso de una catástrofe planetaria?

Como ha demostrado el investigador del Instituto Federal Suizo de Tecnología en Zúrich (ETH) Robert Grass, el ADN puede encapsularse en fósiles artificiales capaces de proteger la información que guardan durante miles o tal vez millones de años. El método consiste en encapsular la molécula en minúsculas bolitas de sílice de 0,15 milésimas de milímetro; es decir, granos de arena muy fina.

Hagamos una pequeña cuenta recreativa: según las compañías EMC Corporation e International Data Corporation, en 2020 el universo digital ocupará un total de 44 zettabytes (ZB), o 44.000 millones de terabytes (TB), o 44 billones de gigabytes (GB). La compañía Cisco calculó que un ZB ocuparía el mismo volumen que la Gran Muralla China. Tomando una cifra publicada para el volumen de la muralla de 34.423.725.600 pies cúbicos, o 974.771.357 metros cúbicos, tenemos que en 2020 el volumen total de datos digitales del planeta será de 42.889.939.708 metros cúbicos.

En forma de ADN, la densidad de almacenamiento es 100 millones de veces mayor, lo que nos daría un volumen de unos 429 metros cúbicos. La raíz cúbica de 429 es aproximadamente 7,5. Es decir, que en un cubo de arena de siete metros y medio de lado cabría, en forma de ADN, toda la información digital jamás producida desde el origen de la humanidad hasta 2020.

Y cuando se sintetiza ADN, no se fabrica una sola copia, sino millones. Playas y playas de nanocápsulas de sílice que conservarían todo lo que fuimos, durante millones de años. Por supuesto que, en caso de apocalipsis, deberíamos esperar a que los supervivientes reinventaran de nuevo la tecnología necesaria para leerlo. O a que otros lo hicieran por nosotros y así llegaran a saber quiénes fuimos.

Por si se lo están preguntando, en ese puñado de libros ya codificados para la eternidad solo hay uno de un autor español, y no es necesario que les aclare de cuál se trata. Pero lamento comunicarles que esta versión comienza así:

In a village of La Mancha, the name of which I have no desire to call to mind, there lived not long since one of those gentlemen that keep a lance in the lance-rack, an old buckler, a lean hack, and a greyhound for coursing. An olla of rather more beef than mutton, a salad on most nights, scraps on Saturdays, lentils on Fridays, and a pigeon or so extra on Sundays, made away with three-quarters of his income.

Antes de que nadie se lleve las manos a la cabeza, insisto en lo que he mencionado más arriba: son los 100 libros más descargados. El Proyecto Gutenberg también dispone de la versión original en castellano. Pero si el Quixote acumula más del doble de descargas que el Quijote, la culpa no es del Proyecto Gutenberg.

Y sí, están el Drácula de Stoker, La metamorfosis y El proceso de Kafka y (solo) dos de los cinco volúmes de las obras completas de Poe. Y Wells. Y Anna Karenina. Y Moby Dick. Y El corazón de las Tinieblas. Y El retrato de Dorian Gray. Y Madame Bovary. Ah, y el Kama Sutra, para que no se nos olvide nada. Personalmente, y si pudiera elegir, añadiría a Proust, La vida es sueño, algunas cosas de Hemingway, Fitzgerald, Steinbeck… Lovecraft… ¡Dinesen, claro!… Y los rusos… algo más de Verne… Y claro, todo el romanticismo español. Pero también Zola. Y Víctor Hugo. Qué difícil es elegir. Pero por razones que no vienen al caso, me gustaría poder volver a escuchar al menos la obertura de la Cavalleria Rusticana de Mascagni, el Moonriver cantado por Audrey Hepburn, November Rain de Guns N’ Roses, el Ecstasy of Gold/Call of Ktulu/Master of Puppets de Metallica, Janie Jones de los Clash y Ceremony de Joy Division. Y el Script of the Bridge completo de los Chameleons. Habría muchísimos más. Pero con esto creo que bastaría para entretenerme mientras espero el fin.

Un robot viola la primera ley de Asimov

Así dicho, podría sonar a pompa y artificio. De un vistazo superficial, podría parecer que el hecho de que una máquina haya causado daños, por suerte leves, a un niño, no pasaría más allá de cualquier otro accidente de un humano con un aparato; como, digamos, el que se pilla la corbata con la trituradora de documentos.

Pero cuando la máquina es un sofisticado robot de seguridad dotado de casi 30 sensores ad hoc y programado para vigilar a los malos y proteger a los buenos, entonces ahí lo tenemos, y no puede ser más literalmente cierto: «un robot no hará daño o, por inacción, permitirá que un ser humano sufra daño», Isaac Asimov dixit en la primera de sus famosísimas Tres Leyes de la Robótica.

Los hechos: el Centro Comercial de Stanford, en Palo Alto (California), cuenta en su plantilla con los K5 de Knightscope, una especie de Robocops con ruedas –aunque su aspecto recuerda más a R2D2– de metro y medio de alto y unos 130 kilos de peso que patrullan por el centro para servir de apoyo a los guardias de seguridad humanos. Cuando el K5 detecta alguna anomalía, como un ruido inusual o un cambio brusco de temperatura, o cuando detecta a algún criminal fichado… no, no dispara; se limita a alertar a sus jefes basados en el carbono.

El K5 de Knightscope. Imagen de Knightscope.

El K5 de Knightscope. Imagen de Knightscope.

Dado que el centro comercial está situado en el Silicon Valley, nada más apropiado que un vigilante robótico. Pero dado que una de las virtudes del K5 es que sale más barato que un guardia de carne y hueso, a unos 6,25 dólares la hora, nada más apropiado para rescatar la vieja polémica que se remonta a los tiempos de la Revolución Industrial.

El caso es que el pasado 7 de julio, una familia se encontraba visitando el centro comercial cuando el pequeño de 16 meses Harwin Cheng resultó arrollado por un K5. El robot pasó por encima de su pie, causándole un golpe de morros contra el suelo, arañazos en la pierna y una inflamación, además de un susto de muerte.

Como era de esperar, hay una diferencia sustancial entre la versión de la familia y la de Knightscope. La madre del niño, Tiffany, dijo a ABC7 News: “El robot golpeó a mi hijo en la cabeza y él cayó de cara hacia el suelo, y el robot no se detuvo y siguió avanzando”. Por su parte, según The Verge, Knightscope declaró en un comunicado que “el niño abandonó la vecindad de sus guardianes y comenzó a correr hacia la máquina. La máquina giró a la izquierda para evitar al niño, pero el niño corrió hacia atrás directamente hacia el frente de la máquina, momento en que la máquina se detuvo y el niño cayó al suelo”.

Naturalmente, ante tal discrepancia caben pocas dudas sobre qué versión creer, aunque solo sea porque la de Knightscope no explica claramente las lesiones del niño; la empresa asegura que los sensores del robot no detectaron vibración, como debía haber ocurrido al pasar sobre un pie. Incluso el Roomba de iRobot, esa aspiradora casera que se convirtió en la primera máquina de uso doméstico admitida en el Salón de la Fama de los Robots de la Universidad Carnegie Mellon, sabe detenerse cuando encuentra un obstáculo.

Por otra parte, quienes tenemos hijos también sabemos que, cuando se empeñan, no existe robot en la galaxia capaz de esquivarlos. Sea como fuere, la compañía ha presentado sus disculpas a la familia y la ha invitado a conocer sus instalaciones, aunque no está claro si a los Cheng les quedarán ganas. Por el momento, los K5 del centro comercial han tenido que entregar sus placas y han quedado suspendidos de empleo y sueldo.

Aunque afortunadamente el suceso no ha pasado de anécdota, ilustra una situación que sin duda se repetirá con mayor frecuencia a medida que nuestra interacción con los robots se vaya multiplicando. Y lo peor de todo es que no siempre los casos que puedan presentarse estarán tan fácilmente cubiertos por las tres sencillas reglas de Asimov. Algo que escapa a este código básico y que últimamente ha sido objeto de comentarios es el dilema moral, especialmente en el caso de los coches robotizados autónomos que Tesla y otras compañías quieren popularizar en los próximos años.

El pasado mayo, un coche autónomo Tesla causó la muerte de su único ocupante cuando no pudo esquivar un camión que se interpuso de repente. Al parecer, el vehículo viajaba en modo de piloto automático mientras su conductor veía una película de Harry Potter, y los sensores del coche no distinguieron el camión blanco contra el cielo luminoso. La semana pasada se produjo otro accidente de un Tesla, esta vez sin daños. Aquí no hay debate posible: fue un error de la tecnología que revela sus imperfecciones.

Pero imaginemos esta otra situación: un coche autónomo circula con ocupantes en su interior, cuando de repente se encuentra inesperadamente con un obstáculo en el camino sin tiempo para frenar. Tiene dos opciones: estrellarse, poniendo en riesgo las vidas de sus pasajeros, o eludir el obstáculo y arrollar a un grupo de peatones. ¿Cuál es la decisión correcta? ¿Depende de si hay más personas dentro del coche o en la acera? ¿De si hay niños? ¿Podrán los afectados o sus familiares demandar al fabricante del coche? ¿Querría algún fabricante arriesgarse a perder una demanda con indemnizaciones millonarias?

El pasado junio, un estudio publicado en Science reunía una serie de encuestas que planteaban este dilema. La mayoría de los encuestados pensaban que el coche debería optar por sacrificar a sus ocupantes, aunque opinaban que esto no debería regularse por ley. Y como consecuencia de todo ello, se mostraban reacios a montar en coches que podrían tomar la decisión de liquidarlos para no dañar a otros.

La realidad puede ser más complicada que la ficción. Y si algo queda claro, es que tres leyes no bastan.

China termina su inmenso buscador de aliens

A partir de septiembre, la atención de todos aquellos interesados en la búsqueda de vida alienígena inteligente se volverá hacia un remoto rincón del condado chino de Pingtang, en la provincia de Guizhou. Allí, el Observatorio Astronómico Nacional de la Academia China de Ciencias acaba de anunciar la colocación del último de los 4.450 paneles triangulares del Telescopio Esférico de Apertura de 500 Metros (conocido por sus siglas en inglés como FAST), el que desde ahora es el mayor radiotelescopio del mundo de plato único y reflector primario fijo.

El radiotelescopio FAST (China). Imagen de NAOC.

El radiotelescopio FAST (China). Imagen de NAOC.

El telescopio será un instrumento de investigación astronómica abierto a la colaboración internacional en todo tipo de proyectos. Sin embargo, sus responsables han precisado que uno de sus objetivos será la búsqueda de posibles señales de radio de origen inteligente, emulando a la que hasta ahora ha sido la mayor instalación del mundo del mismo tipo, el radiotelescopio de Arecibo en Puerto Rico, de 300 metros de diámetro.

Aunque la construcción ha durado cinco años, con una inversión de 167 millones de euros, el origen del proyecto se remonta a 1994. La idea era seguir el modelo de Arecibo, donde el plato esférico está acostado en una hoya cárstica natural, lo que facilita la construcción, el drenaje y el mantenimiento. Los ingenieros chinos recorrieron el país hasta dar con un paisaje similar, una remota hondonada sin apenas interferencias de radio donde 65 aldeanos vivían sin electricidad y desconectados del mundo.

Naturalmente, los aldeanos debieron ser desalojados, junto con casi otros 10.000 que vivían en los alrededores. Y naturalmente, tratándose de China, los medios oficiales informaron de lo contentos que estaban los habitantes locales de abandonar sus hogares para dejar paso a aquella gran obra de ingeniería y ciencia. Según la agencia Xinhua, “los habitantes de las comunidades cercanas admiraron su suerte, diciendo que debían estar agradecidos a los aliens”. Los aldeanos fueron reubicados en otras poblaciones.

El FAST tiene algunas diferencias con Arecibo. En primer lugar, el reflector primario de Puerto Rico es totalmente fijo y esférico, mientras que la superficie del FAST es deformable en parábola, como los platos de los radiotelescopios orientables. En realidad esto reduce la apertura efectiva (la superficie útil) a algo más de 300 metros. Es decir, que si estuviera en España, probablemente se le llamaría el radiotelescopio de las dos mentiras: ni es esférico, ni tiene 500 metros de apertura. Existe otro radiotelescopio individual aún mayor, el RATAN-600 de Rusia, de 576 metros de diámetro, pero este no está compuesto por una superficie única, sino por 895 paneles rectangulares orientables por separado.

Vista parcial del radiotelescopio de Arecibo (Puerto Rico). Imagen de Javier Yanes.

Vista parcial del radiotelescopio de Arecibo (Puerto Rico). Imagen de Javier Yanes.

Para que se hagan una idea de la comparación de dimensiones entre estos telescopios, he hecho esta composición de imágenes de Google Earth, todas ellas correspondientes a una altura del punto de vista de dos kilómetros. Para apreciar la escala, incluyo una imagen de lo más próximo que tenemos por aquí, la estación de la Deep Space Communications Network en Robledo de Chavela (Madrid), y añado también una vista del centro de Madrid y otra del puerto de Barcelona a la misma escala.

Comparación de tamaños a escala del FAST, Arecibo, RATAN-600, la estación de seguimiento de Robledo de Chavela, el centro de Madrid y el puerto de Barcelona. Imágenes de Google Earth, altura del punto de vista: dos kilómetros.

Comparación de tamaños a escala del FAST, Arecibo, RATAN-600, la estación de seguimiento de Robledo de Chavela, el centro de Madrid y el puerto de Barcelona. Imágenes de Google Earth, altura del punto de vista: dos kilómetros.

El FAST comenzará próximamente sus primeras pruebas para la puesta a punto y el debugging, y está previsto que en septiembre comience a operar. Con esta gran instalación, China prosigue en su revolución científica que pretende situar al país a la cabeza de la ciencia mundial en 2049, con el centenario de la fundación de la República Popular. Esperemos que también mejore la transparencia informativa para que, si algún día realmente llegan a encontrar algo que pueda ser un indicio de algo, todos podamos enterarnos.

Una hipótesis hace posible el propulsor imposible EmDrive

Prueben a saltar una valla apoyando el pie en sus propias manos. O a empujar un coche desde dentro. Imposible a la par que absurdo, ¿no?

Dadme un punto de apoyo y moveré el mundo, decía Pappus de Alejandría que dijo Arquímedes a propósito de la palanca. Ese punto de apoyo sirve como interacción del sistema con su exterior. En la palanca es el fulcro, pero si levantamos un peso sin más ayuda, el punto de apoyo son nuestros pies en el suelo.

Muchos siglos después de Arquímedes, Newton dio un sentido físico a lo que el matemático siciliano solucionó como un problema de geometría. En su tercera ley del movimiento, popularmente conocida como ley de acción y reacción, Newton vino a decir que a toda fuerza (acción) se opone otra igual y contraria (reacción).

Cuando levantamos un peso, la fuerza que ejercemos sobre el suelo aumenta. El suelo nos devuelve una fuerza también mayor y nos permite vencer esa resistencia del peso. Pero si tratamos de auparnos sobre nuestra propia mano o empujar el coche desde dentro, no recibimos ese empujón del suelo –nuestro punto de apoyo– que nos permita cambiar el movimiento del objeto que tratamos de mover –nosotros mismos o el coche–.

En términos físicos, esto se expresa con una magnitud llamada cantidad de movimiento, o p (y que se calcula como masa por velocidad, m⋅v). Cuando levantamos un peso, su cantidad de movimiento, que inicialmente es cero, aumenta hasta un valor relacionado con su velocidad. La imposibilidad de empujar el coche desde dentro se explica porque en la interacción entre dos objetos, la p total permanece constante. Y dado que en este caso no hay interacción con el exterior (ese punto de apoyo), por mucho que nos esforcemos no lograremos cambiar p, y por tanto el coche no se moverá ni un milímetro.

Cuando levantamos el peso, el suelo nos detiene. Pero si se trata de dos objetos en movimiento libre, como dos bolas de billar que chocan, el resultado de la colisión es que la suma de sus p después de chocar es la misma que antes. Es un principio universal de la física, la conservación de la cantidad de movimiento. ¿Saben de aquellos juguetes de escritorio que fueron tan populares en los años 70, con varias bolitas suspendidas en fila de manera que, al hacer chocar una contra las demás, la del otro extremo responde moviéndose? Péndulo de Newton; demostración de la conservación de la cantidad de movimiento.

En la física de Newton, la masa de un objeto es una constante que determina la relación entre la fuerza que aplicamos a un objeto y la velocidad que adquiere. Por eso se llama masa inercial; la inercia es lo que hace que una masa, como una bola de billar empujada, continúe moviéndose mientras no haya otra fuerza que la detenga: una mano en su camino o el simple rozamiento con la mesa.

La conservación de p explica también cómo funcionan los reactores. Un avión a reacción se mueve porque expulsa un propelente en sentido contrario a su avance, como cuando soltamos un globo inflado sin anudar. En este caso, la velocidad de la nave y la velocidad a la que se expulsa el propelente están relacionadas a través de las masas de ambos. Y también en este caso, la p total no varía.

A comienzos de este siglo, un ingeniero británico llamado Roger Shawyer comenzó a desarrollar un propulsor conocido como EmDrive, o propulsor de cavidad resonante de radiofrecuencia. Es tan simple como un cono truncado de metal en cuyo interior se hacen rebotar microondas, y esto genera un impulso hacia el extremo más estrecho del cono.

Todo ello sin combustible, sin propelente, sin partes mecánicas móviles, sin nada más que un generador de microondas. Un propulsor inagotable que podría acelerar una nave indefinidamente en un viaje a través de la galaxia por toda la eternidad… Suena bien, ¿no?

El EmDrive. Imagen de SPR.

El EmDrive. Imagen de SPR.

Pero claro, hay una pega. Y es que, por todo lo explicado arriba, se entiende que es completamente imposible que esto funcione: la p del propulsor aumentaría sin que ninguna otra cosa se la ceda, lo que violaría la ley de la  conservación. No hay expulsión de propelente ni ninguna otra fuerza ejercida hacia el exterior del cono. No hay acción y reacción. En resumen, es empujar el coche desde dentro. Con el agravante de que además no hay masas implicadas: las microondas no son otra cosa que luz. Así que es aún más absurdo: ni siquiera es intentar mover el coche desde dentro empujando el volante, sino más bien tratar de hacerlo empujando el volante con el rayo de una linterna. Y la luz no tiene masa.

¿O sí? Escoja usted dos físicos y recibirá dos respuestas diferentes. Para muchos físicos, los fotones (las partículas que forman la luz) simplemente no tienen masa, y punto. Pero otros no están tan de acuerdo: para ellos, el fotón no tiene masa en reposo, pero sí masa inercial. Lo que normalmente entendemos como masa es la masa en reposo. Y dado que un fotón nunca está en reposo, porque siempre se mueve a la velocidad de la luz, lo miremos desde donde lo miremos, no tiene masa en reposo.

Pero aplicando la ecuación de Einstein, E = m⋅c², que relaciona la masa con la energía a través del cuadrado de la velocidad de la luz, al menos algunos físicos le dirán que el fotón tiene una masa inercial teórica, o masa relativística. El fotón tiene una cantidad de movimiento p, que se puede calcular: E = m·c² = m·c·c. Masa por velocidad es p, luego E = p·c. Así que la cantidad de movimiento de un fotón, p, viene dada por su energía E: p = E/c. A su vez, la energía de un fotón se calcula a través de la frecuencia de la onda que lo acompaña, la cual varía inversamente con la longitud de la onda: a mayor frecuencia, menor longitud de onda, y viceversa.

Así, la p de un fotón depende solo de su energía; porque imaginemos lo que ocurre si no es así y suponemos que el fotón tiene masa: si realmente pudiéramos calcular su p como el producto de su masa por su velocidad, obtendríamos que esta no es constante (c), sino que variaría en función de su energía y por tanto de su frecuencia. Es decir, que la luz no viajaría a la velocidad de la luz, sino a una velocidad diferente según su frecuencia (o longitud de onda). Lo cual no parece muy ortodoxo.

Y pese a todo lo anterior, lo imposible ocurre: en los últimos años se ha demostrado que en el EmDrive se produce un pequeño efecto de propulsión. Pequeño, pero no cero, como debería ser. Y esto se ha mostrado no solo una vez, sino seis, en otros tantos experimentos de grupos independientes; uno de ellos trabajando para la NASA, aunque esta agencia no se sienta muy orgulloso de ello. Se ha descartado que sea un efecto del movimiento inducido en el aire, porque funciona también en el vacío. Contra todo pronóstico y contra lo que hoy la física da por sentado, aparentemente el EMDrive funciona. Pero ¿cómo?

Desde hace unos años, un físico de la Universidad de Plymouth llamado Mike McCulloch indaga en un nuevo modelo cosmológico basado en la masa inercial de las partículas. McCulloch tira de un fenómeno teórico compatible con la física relativista y que el canadiense William George Unruh predijo por primera vez en 1976. El llamado efecto Unruh propone que un objeto sometido a aceleración calienta el universo, y que esta temperatura depende de esa aceleración. El efecto es muy pequeño; es decir, que incluso con grandes aceleraciones el aumento de temperatura es minúsculo. Curiosamente, la fórmula a la que Unruh llegó para calcular esta temperatura es la misma que, de forma independiente, Stephen Hawking desarrolló para la radiación emitida por los agujeros negros y que eventualmente llevaría a su evaporación.

Algo que Unruh propuso, pero con lo que muchos físicos no están de acuerdo, es que el efecto Unruh produce una radiación; o sea ondas, con su frecuencia y su longitud. Según la relación de la fórmula de Unruh, con grandes aceleraciones los tamaños de estas ondas son manejables. Pero con aceleraciones muy pequeñas, que corresponden a temperaturas infinitamente minúsculas, lo que sucede es que las ondas comienzan a crecer a tamaños gigantescos, hasta que literalmente no caben en el universo. Y cuando esto ocurre, algo extraño sucede; siempre, claro, si la teoría es correcta: la longitud de la onda salta hasta un valor aceptable. Pero como hemos visto, si cambia el tamaño de la onda, también lo hace la energía, y por tanto la p de la partícula. Lo cual, como ya sabemos, está prohibido.

¿Qué pasa entonces? Para compensar esta diferencia y que p se mantenga constante, como debe ser, lo que ocurre es que cambia la masa inercial de la partícula, y con ello su movimiento. Por este motivo McCulloch afirma que la inercia, un fenómeno que evidentemente existe, pero que aún tiene una justificación física oscura, es consecuencia del efecto Unruh, y que se presenta en valores discretos correspondientes a esos saltos de las ondas. En otras palabras, que la inercia está cuantizada.

McCulloch ha aplicado esta teoría para explicar ciertas anomalías observadas en el movimiento de las sondas espaciales cuando pasan cerca de la Tierra. Es más, a través del efecto Unruh, McCulloch ha llegado a explicar por qué la rotación de las galaxias no las dispersa, algo que suele atribuirse a la presencia de materia oscura que las mantiene unidas. Según la hipótesis de McCulloch, el efecto Unruh explica la expansión cósmica y la cohesión de las galaxias sin necesidad de introducir materia oscura ni energía oscura, dos conceptos teóricos generalmente aceptados, pero no demostrados.

Ahora, McCulloch ha aplicado su teoría al EmDrive, y llega a la conclusión de que el efecto Unruh explica por qué funciona sin violar la conservación de la cantidad de movimiento. En este caso, dice el físico, el universo en el que se mueven las ondas es el cono. Cuando las microondas rebotan a lo largo del EmDrive hacia el extremo ancho, el salto de las ondas más grandes aumenta la masa inercial del fotón y su velocidad, lo que provoca un impulso en sentido contrario para ralentizar el fotón y conservar la cantidad de movimiento. Cuando el fotón se mueve hacia la boca estrecha, se reducen su masa inercial y su velocidad, lo que requiere también introducir una fuerza hacia ese extremo para aumentar la velocidad del fotón y que p permanezca constante. Y de este modo, el propulsor se mueve siempre hacia el extremo más fino, como demuestran los experimentos.

Claro que la explicación de McCulloch aún no convence. La pega fundamental es que la inercia cuantizada de McCulloch es como meter un elefante en el salón: no hay ninguna necesidad de hacerlo, pero una vez que se hace es necesario arreglar todos los destrozos. Al introducir la inercia cuantizada se producen descalabros que hay que arreglar mediante un mecanismo misterioso que no sería necesario proponer de no haber introducido la inercia cuantizada. Como es lógico, muchos físicos se resisten a creer que el fotón tenga una masa inercial cambiante y que un cono de metal sea capaz de hacer variar la velocidad de la luz en su interior.

Y pese a todo, lo más sorprendente es que McCulloch ha calculado las fuerzas que exprimentaría el EmDrive de acuerdo a su teoría, y los resultados se parecen sospechosamente a los valores reales medidos en los experimentos. Lo cual es motivo suficiente para, al menos, conceder a su hipótesis el beneficio de la duda. Algo que pronto podría resolverse: McCulloch ha elaborado también otras predicciones; por ejemplo, cómo habría que cambiar las dimensiones del cono para invertir la fuerza y que el propulsor se moviera hacia la boca ancha. Es de suponer que alguien ya estará poniendo en marcha experimentos como este, lo que tal vez en unos meses podría zanjar de una vez por todas si el EmDrive hace posible lo imposible.