BLOGS
Ciencias mixtas Ciencias mixtas

Los secretos de las ciencias para
los que también son de letras

Archivo de la categoría ‘Tecnología’

Cinco razones para regresar a la fotografía analógica

A comienzos de siglo (cómo suena esto…) trabajé durante unos años en periodismo de viajes, una especialidad tan bonita como mal pagada; un autor de guías de EEUU decía que su salario era un poco menos que el de quien ponía las patatas a freír en el McDonald’s. Pero como todo, esto se debe a una simple cuestión de especialización, oferta y demanda: ¿qué periodista, incluso muchos que no lo son, no ha escrito alguna vez un artículo de viajes? No es que el resultado final sea comparable en todos los casos, pero por desgracia la calidad ha sido víctima de la crisis de los medios.

Un ejemplo: en aquella editora de revistas en la que trabajé se contaba con alguien como Javier Reverte, pero solo en calidad de firma invitada; un artículo corto de libre disposición y escrito desde casa podía despacharse con un pago en forma de billetes de avión (no comprados, sino conseguidos mediante intercambio comercial a cambio de publicidad). En cambio, satisfacerle unos honorarios justos por un verdadero reportaje como periodista de viajes habría arruinado la revista. Lo que finalmente ocurrió, pero esa es otra historia.

Voy llegando a donde pretendo: siempre sentí que en aquel caso el periodista, o sea, yo, no era más que un tipo afortunado que cobraba (muy poco, como he dicho) por viajar, al revés que el resto de los mortales. Y que la verdadera estrella era el fotógrafo, al que uno le servía de simple palmero. La premisa, probablemente atinada, era que los lectores eran más bien miradores, y que sobre todo querían ver imágenes deslumbrantes de los destinos a donde les apetecería viajar.

Tuve la suerte entonces de conocer a fotógrafos excepcionales. De ellos pude aprender mucho como simple aficionado, pero solo ellos y ellas eran capaces de mirar donde todos mirábamos y retratarlo como nadie más. Aquella fotografía preciosista que marcaba el estilo de la publicación era un magnífico ejemplo de Ciencias Mixtas: ellos llevaban el arte en su mirada particular sobre el mundo; pero una vez elegidos el motivo y el encuadre, sabían cómo exprimir todo lo que un disparo podía dar de sí gracias a su conocimiento de la óptica.

Por entonces estábamos en plena transición de la foto analógica a la digital, y a menudo los fotógrafos viajaban con los dos formatos al mismo tiempo. Ya se utilizaba el Photoshop, pero allí únicamente se empleaba para cosas como añadir máscaras de enfoque o ajustar la luminosidad de las diapositivas escaneadas. Cuando veías uno de aquellos espectaculares fotones impreso a doble página en la revista, si recuperabas la diapositiva original, encontrabas exactamente lo mismo. No había trampa ni cartón, sino un dominio magistral del comportamiento de aquella criatura con la que trabajaban, la luz.

Imagen de Pexels.com.

Imagen de Pexels.com.

No pretendo decir que todo buen fotógrafo deba saber de ciencia óptica. No soy fotógrafo, así que no puedo saberlo. Y además, supongo que cada uno tiene su interpretación particular. Pero imagino que ocurre con todo: un pintor podrá investigar y explotar más profundamente su arte si conoce la teoría del color, o un músico la teoría musical, o un bailarín la biomecánica. La ciencia aporta al arte, y esta investigación en el arte aporta a la ciencia.

La generalización de la foto digital lo cambió todo, porque ya no existe un original, y ahora puede dispararse pensando desde el principio en lo que luego va a retocarse digitalmente. Es otro tipo de conocimiento al que los fotógrafos han debido adaptarse, pero muchos de ellos no están del todo contentos con el hecho de que una parte fundamental de su trabajo se haga exclusivamente sobre una pantalla.

Imagen de Wikipedia.

Imagen de Wikipedia.

Hace unos días he trabajado en un reportaje sobre la fotografía analógica (aún no publicado), y he descubierto a muchos fotógrafos profesionales y aficionados que están volviendo a la película, o que nunca la abandonaron. Este culto parece estar extendiéndose mucho más allá de los reductos clásicos como el selecto círculo de la lomografía.

El gusto por lo retro es algo que conocemos también en otros ámbitos, como el regreso del vinilo e incluso de la cassette. Y no es cosa de viejos rockeros, sino que muchos jóvenes se han saltado el CD: escuchan música digital en sus teléfonos y iPods, pero en su habitación solo pinchan vinilos (y, dicho sea de paso, así recuperan el gusto por ese viejo arte del disco de diez canciones, con su principio, su fin y su coherencia, frente al demonio de la lista de reproducción).

Quien me dio un panorama más completo de esta resurrección (o no-muerte) de la foto analógica fue Gil Pasternak, del Centro de Investigación en Historia de la Fotografía de la Universidad De Monfort (Reino Unido). Pasternak ha elaborado recientemente un estudio sobre el tema, aún sin publicar, en el que ha indagado en las razones de muchos fotógrafos aficionados, profesionales (sobre todo de bodas) y artistas para ceñirse a la foto analógica.

El resumen del resultado de la investigación de Pasternak, según me cuenta, son estas cinco razones que cito literalmente de sus palabras:

1. Algunos nativos digitales tienden a entrar en la fotografía analógica por el proceso, que consideran como algo mágico e inusual; utilizo el término nativos digitales como referencia a los jóvenes que crecieron con la fotografía digital como estándar, y que por tanto encuentran en la fotografía analógica un proceso experimental excitante.

2. Algunos adolescentes y adultos prefieren la fotografía analógica debido a sus cualidades materiales. Sienten que su implicación física directa en la fotografía confiere un valor añadido a las fotos que toman. En otras palabras, dan un gran significado al proceso de cargar la película en la cámara, sacarla y procesarla, imprimir las copias y sostenerlas. Este proceso de producción a postproducción hace sus fotografías mucho más personales a sus ojos que las imágenes digitales en la pantalla. Así, también consideran las fotografías producidas por medios analógicos como formas de referencia más auténticas a sus experiencias y a las narraciones de su vida que quieren recordar a través de las fotografías que toman.

3. Otro grupo asocia la fotografía analógica con la creatividad. Tienden a pensar que la foto analógica les permite ejercer un mayor control sobre las fotografías y las imágenes porque pueden interferir en el proceso y manipular las imágenes con mayor facilidad. Por ejemplo, mediante el uso de una amplia gama de productos, papel de color con negativos de blanco y negro, y la exposición del papel fotográfico a la luz antes de aplicarle el fijador (que finaliza el proceso neutralizando la sensibilidad del papel a la luz), etcétera.

4. Otros, especialmente los no nativos digitales, tienden a asociar la fotografía analógica con la nostalgia de la memoria, con el recuerdo de un viejo mundo más simple. Regresan a la fotografía analógica para reconectar con sentimientos y emociones que han experimentado en el pasado, cuando miran fotos familiares históricas y de su infancia.

5. Por último, algunos simplemente piensan que las imágenes digitales son demasiado claras, nítidas y transparentes. Perciben que las fotos analógicas, con sus imperfecciones, son representaciones más creíbles de la realidad, sobre todo porque la claridad de las imágenes digitales no les permite definir una distinción clara entre realidad y representación; es decir, entre presente y pasado.

Esta máquina puede funcionar durante 80 años sin apagarse jamás

¿Cuánto les duró su último teléfono móvil? ¿Su último ordenador? ¿Impresora, televisor, coche…? ¿Imaginan una máquina capaz de funcionar de forma continua sin un segundo de descanso durante más de 80 años, sin repuestos, con un mantenimiento sencillo y sin visitas al servicio técnico?

Imagen de Beth Scupham / Flickr / CC.

Imagen de Beth Scupham / Flickr / CC.

Cualquiera que alguna vez se haya sentido víctima de esa rápida obsolescencia –sea realmente programada o no– que sufren casi todas las máquinas presentes en nuestra vida debería balbucir de estupefacción ante la maravilla que guardamos en la jaula de huesos del pecho. Tal vez no suelan pensar en ello, pero su corazón no ha dejado de contraerse y expandirse a un ritmo preciso ni un solo momento en todos los años que han vivido.

Sí, es cierto que en una persona sana el resto de sus órganos también trabajan durante décadas. Pero a diferencia de otros, como el hígado o el riñón, el corazón es una máquina electromecánica, con partes móviles. Y todos los demás órganos dependen de este movimiento: si el corazón se detiene, aunque sea por un ratito, se acabó todo lo demás.

Hace unos tres meses, un análisis publicado en Nature sostenía que hay un límite máximo para la longevidad humana, y que ya lo hemos alcanzado: unos 115 años. Cuidado, no confundir longevidad con esperanza de vida. Esta última se refiere a la posibilidad de evitar la muerte por enfermedad u otro motivo mientras nuestro cuerpo aún podría seguir funcionando.

La longevidad planteada por los autores, de la Facultad de Medicina Albert Einstein de Nueva York, se refiere a la (posible) existencia de un límite biológico intrínseco que no puede romperse. Un cuerpo humano no puede vivir 150 años, del mismo modo que un nuevo récord de los 100 metros lisos arañará alguna centésima a la marca previa, pero un cuerpo humano no puede correr esa distancia en dos segundos (odio las metáforas deportivas, pero viene muy al pelo).

La longevidad máxima propuesta por los autores es un techo que no puede romperse simplemente progresando en la lucha contra la enfermedad y en los estándares de salud. Aunque ellos no lo ponían de este modo, en cierto modo seríamos víctimas de una obsolescencia programada, en nuestro caso genéticamente programada.

El artículo fue controvertido, ya que otros expertos en envejecimiento no están de acuerdo; al contrario que los autores, piensan que es demasiado pronto para fijarnos una fecha de caducidad, y que los avances científicos en este campo pueden ser hoy insospechados. Algunos de los críticos incluso afirmaban que el artículo no alcanzaba la categoría necesaria para haber sido aceptado por la revista Nature.

En el extremo opuesto al de los autores de este artículo se encuentran personajes como Aubrey de Grey, el gerontólogo británico que vive de afirmar que el ser humano alcanzará los mil años, y que el primer milenario del futuro ya está hoy caminando sobre la Tierra.

Ya he expresado antes mi opinión sobre las proclamas de De Grey, así que no voy a insistir en lo mismo, sino solo recordar un hecho inopinable: las Estrategias para la Senescencia Mínima por Ingeniería (SENS, en inglés), como De Grey denomina a su proyecto, aún no han logrado alargar la vida de ningún ser humano o animal. La propuesta de De Grey es actualmente tan indemostrable como irrefutable, lo que la deja en un limbo que muchos identificarían con la seudociencia. De Grey es un científico que no se gana la vida con lo que hace, sino con lo que dice que va a hacer.

La ciencia ficción nos deja imaginar cómo cualquiera de nuestras piezas defectuosas podría reemplazarse por una nueva gracias a la medicina regenerativa, hasta hacernos dudar de cuándo dejamos de ser nosotros mismos. Es la vieja paradoja del barco de Teseo (¿cuándo el barco de Teseo deja de ser el barco de Teseo a medida que se le van reemplazando piezas?), que la ficción ha explorado una y otra vez: en El mago de Oz, el Hombre de Hojalata era originalmente un humano que vio todo su cuerpo sustituido por piezas de metal… y que encontraba a su novia casada con el hombre construido con las partes del cuerpo que él perdió.

Claro que pasar de la ficción a la realidad puede ser no solo difícilmente viable, sino también espantoso; cada cierto tiempo resurge en los medios la historia del neurocirujano italiano que pretende llevar a cabo el primer trasplante de cabeza (o de cuerpo, según se mire), una propuesta increíble que nos recuerda otro hecho increíble, pero cierto: hay empresas de crionización que ofrecen a sus clientes la posibilidad de congelarse… solo la cabeza.

¿A dónde nos lleva todo esto? Tal vez a lo siguiente: antes de tratar de prolongar la vida más allá de lo que actualmente se nos presenta como un límite de longevidad, sea este límite quebrantable o no… ¿no sería más deseable alcanzar el ideal de que la esperanza de vida fuera una esperanza real para todos? Un cuerpo humano de 100 años de edad está esperando a ver cuál de sus órganos vitales es el primero en fallar. En lugar de suspirar por el hombre bicentenario, ¿y si pudiéramos evitar el fallo de un órgano vital cuando todos los demás aún están en perfecto funcionamiento?

Un ejemplo: de los millones de personas que cada año mueren por enfermedad cardiovascular, muchas de ellas sufren parada cardíaca. Otras sufren infartos de miocardio o cerebrales. Pero los infartos, provocados por un bloqueo arterial, pueden conducir también a un paro cardíaco, al cese de esa máquina aparentemente incesante. Estas muertes serían evitables si se pudiera mantener artificialmente el bombeo del corazón, pero lo normal es que la posibilidad de reiniciar esa máquina llegue demasiado tarde, cuando ya el daño en el resto del sistema es irreparable.

Un estudio publicado esta semana en la revista Science Translational Medicine describe una nueva tecnología que está muy cerca de evitar estas muertes. Investigadores de EEUU, Irlanda, Reino Unido y Alemania han creado una especie de funda robótica que envuelve el corazón y lo hace bombear artificialmente, sin perforarlo de ninguna manera ni entrar en contacto con la sangre, a diferencia de otros sistemas ya existentes. La funda está compuesta por músculos artificiales de silicona que se accionan por un sistema de aire comprimido, imitando el latido normal del corazón. Los investigadores lo han probado con corazones de cerdo y en animales vivos, con gran éxito.

Hoy los científicos tratan de reparar con células madre los daños en el corazón provocados por los infartos, lo que puede dar nueva vida al órgano de las personas que han sufrido daños en el músculo cardíaco. Incluso se apunta al objetivo final, aún lejano, de fabricar un corazón completo con células madre. Pero cuando un corazón se detiene, nada de esto sirve de mucho. Donde existe un órgano intacto, aunque incapaz de cumplir su función por sí mismo, una prótesis de bioingeniería como la del nuevo estudio podría permitir que una persona por lo demás sana pueda vivir muchos años más de lo que su corazón le permitiría.

Ya hay otros avances previos en esta misma línea. Naturalmente, desde el laboratorio hasta el hospital hay un larguísimo camino que no admite atajos. Pero este camino es genuinamente el de la ciencia de la prolongación de la vida: lograr que cumplir los 80 no sea un sueño inalcanzable para una gran parte de la humanidad. Lo de llegar a los 150, qué tal si lo dejamos para después. Y en cuanto a los mil años, hoy ni siquiera podemos saber si es ciencia ficción o solo fantasía, pero me vienen a la memoria las palabras de un personaje novelesco llevado al cine que vio pasar los siglos por delante de sus ojos:

To die,

To be really dead,

That must be glorious!

(Conde Drácula / Bela Lugosi)

Haga sus propios copos de nieve, e ilumine su árbol con peces eléctricos

Ya que el anticiclón no parece dispuesto a soltarnos y a falta de Navidades blancas, ¿qué tal aprovechar las vacaciones para fabricar sus propios copos de nieve en casa?

Copo de nieve fotografiado al microscopio. Imagen de Kenneth Libbrecht.

Copo de nieve fotografiado al microscopio. Imagen de Kenneth Libbrecht.

El físico de Caltech (EEUU) Kenneth G. Libbrecht es probablemente el mayor experto mundial en cristales de hielo: los crea, los estudia y los fotografía para comprender cómo se forman y en qué medida sus simétricas formas caprichosas dependen de factores como el grado de humedad, la presión o las variaciones sutiles de temperatura. Sus hermosas imágenes están libres de Photoshop; son fotomicrografías reales de copos sabiamente iluminados para que la luz se descomponga en los colores del arco iris.

Y por cierto, hasta tal punto las condiciones de crecimiento del cristal determinan su forma que Libbrecht ha desmontado el viejo mito según el cual no existen dos copos de nieve iguales: utilizando condiciones idénticas, el físico ha logrado crear cristales que son auténticos gemelos idénticos. Y no solo de dos en dos, sino hasta en grupos de varios.

En su web, Libbrecht detalla paso a paso una receta para crear copos de nieve en casa, que resumo aquí. Estos son los materiales necesarios:

Esquema del aparato para crear copos de nieve. Imagen de Kenneth Libbrecht.

Esquema del aparato para crear copos de nieve. Imagen de Kenneth Libbrecht.

  • Una botella pequeña de plástico (con tapón)
  • Tres vasos de poliestireno
  • Una esponja pequeña de 1 cm de grosor
  • Hilo de náilon
  • Aguja de coser
  • Cuatro alfileres
  • Un clip
  • Toallas de papel
  • Cinta adhesiva
  • Unos cinco kilos de hielo seco (puede comprarse por ejemplo aquí)

Primero, se corta el fondo de la botella de plástico a 1 cm de la base. En este fondo se encaja una esponja circular, que se fija clavando cuatro alfileres en los laterales. La esponja y el fondo de la botella se perforan en su centro con una aguja en la que se ha enhebrado el hilo de náilon. Este se fija al exterior de la base con cinta adhesiva, y en el otro extremo se ata el clip para que sirva de peso. La longitud total del hilo debe ser tal que, al volver a colocar el fondo a la botella y ponerla boca abajo, el clip quede dentro de la botella sin llegar al borde del cuello.

Todo este tinglado de la botella, una vez mojada la esponja con agua del grifo, se introduce en los vasos de poliestireno rellenos de hielo seco machacado, como muestra la figura, y se cubre con toallas de papel alrededor de la botella. Con los materiales que Libbrecht utiliza, el vaso que rodea la botella debe agujerearse por la base, pero el físico aclara que esta disposición es solo una sugerencia.

Copos de nieve creados en el experimento. Imagen de Kenneth Libbrecht.

Copos de nieve creados en el experimento. Imagen de Kenneth Libbrecht.

Lo importante es que en la botella se creen dos zonas, templada y húmeda arriba, fría y seca abajo. El agua de la esponja supersatura el aire de vapor, que difunde pasivamente hacia abajo (el aparato se llama cámara de difusión). Al encontrar la zona fría, comienza a cristalizar en torno a un sitio de nucleación, suministrado por las irregularidades del hilo, y a los pocos minutos comenzarán a aparecer los cristales como los de la foto.

Según explica Libbrecht, esto mismo sucede en la atmósfera cuando el aire cálido y húmedo encuentra aire frío. Según la temperatura de este sea mayor o menor de 0 ºC , se forma lluvia o nieve. Cada gota de lluvia o copo de nieve lleva en su interior alguna partícula de polvo que sirve para la nucleación.

Obtener fotografías como las de Libbrecht es algo mucho más complicado, ya que esto requiere un microscopio en frío. Pero los cristales de nieve que se forman pueden verse a simple vista o con una lupa.

Otra sugerencia para Navidad es controlar las luces del árbol mediante peces eléctricos, para quienes tengan acuario y sean además un poco frikis. La propuesta viene del Laboratorio de Peces Eléctricos dirigido por Jason Gallant en la Universidad Estatal de Michigan (EEUU).

Gallant aclara que los peces realmente no alimentan la iluminación del árbol, sino que controlan el parpadeo de las luces. Es decir, que el montaje es una manera navideña y original de comprobar cómo los peces eléctricos africanos Gymnarchus, según el científico fáciles de encontrar en las tiendas de acuarios, navegan y se comunican con impulsos eléctricos; cada vez que el pez emite un pulso, el árbol se ilumina.

Pez eléctrico africano Gymnarchus. Imagen de Wikipedia.

Pez eléctrico africano Gymnarchus. Imagen de Wikipedia.

Para poner en práctica la idea de Gallant se necesita algo de material electrónico, pero también ciertos conocimientos de informática para programar una plataforma Arduino. La lista de los componentes necesarios y el código para programar el sistema se detallan en el blog de Gallant. Feliz navidad y felices experimentos.

“Seguir sin agencia espacial es perder cuatro años más”

Vía libre a ExoMars 2020, la segunda fase del gran proyecto europeo de exploración marciana. Esta fue la decisión tomada la semana pasada por el Consejo Ministerial de la Agencia Europea del Espacio (ESA), entidad participada por 22 países (y NO dependiente de la UE), entre ellos este en el que estoy ahora sentado.

Ignacio Arruego, ingeniero del INTA, junto a un modelo de Schiaparelli. Imagen de I. A.

Ignacio Arruego, ingeniero del INTA, junto a un modelo de Schiaparelli. Imagen de I. A.

Les pongo en antecedentes: en marzo de este año se lanzó la primera fase de ExoMars, un proyecto nacido de la colaboración entre la ESA y Roscosmos, la agencia espacial rusa. Este primer volumen constaba a su vez de dos fascículos: primero, la Trace Gas Orbiter (Orbitador de Gases Traza o TGO), un satélite destinado a estudiar los gases raros de la atmósfera marciana con especial atención al metano, posible signo de vida.

Segundo, Schiaparelli, un platillo volante de un par de metros que debía posarse en el polvo de Marte para catar el ambiente, pero que sobre todo debía servir de ensayo general para la segunda fase. Previsto para 2020, el segundo volumen de ExoMars pretende poner un vehículo rodante o rover en el suelo marciano.

Además de su carácter científico y tecnológico, la misión ExoMars tiene bastante de revancha histórica; porque hasta ahora el nuevo mundo marciano tiene un dueño exclusivo, Estados Unidos. Como ya he repasado aquí y en otros medios, las misiones de aterrizaje en Marte han tenido una tasa de éxito inusualmente baja en comparación con los proyectos a otros destinos, como la Luna o Venus, pero este premio de lotería no ha estado muy repartido: mientras la NASA ha dado en el clavo en la gran mayoría de sus intentos, Rusia y Europa han fracasado. La primera solo logró 14,5 segundos de transmisión con su sonda Mars 3 hace 45 años. Por su parte, Europa perdió en 2003 su Beagle 2, y el pasado octubre Schiaparelli se estampó contra su objetivo.

Uno de los afectados directamente por este reciente desastre es Ignacio Arruego, ingeniero del Instituto Nacional de Técnica Aeroespacial (INTA) responsable del equipo que desarrolló el Sensor de Irradiancia Solar (SIS). Este aparato, que debía medir la transparencia de la atmósfera de Marte (la luz del sol que llega a su superficie), formaba parte del instrumento principal de Schiaparelli, el DREAMS (Dust Characterisation, Risk Assessment, and Environment Analyser on the Martian Surface). El equipo del INTA participa también de forma destacada en la instrumentación del rover de ExoMars 2020.

Portada de 'El medallón de Santiago', novela de Ignacio Arruego.

Portada de ‘El medallón de Santiago’, novela de Ignacio Arruego.

Y por cierto, aprovecho la ocasión para contarles que, entre proyecto y proyecto, Arruego también encuentra algún rato para escribir. Su novela de debut, El medallón de Santiago, es una intriga con trasfondo histórico muy viajero que cuenta la investigación de sus dos protagonistas en busca de un antiguo y misterioso medallón que perteneció al apóstol Santiago.

Arruego me dice que está satisfecho con la decisión del Consejo Ministerial de la ESA de mantener la financiación de ExoMars. Pero no tanto con las palabras del ministro Luis de Guindos, que presidió la reunión debutando en este campo, tras asumir en el nuevo gobierno las competencias del sector espacial que antes recaían en Industria. Una carencia clásica de España es la falta de una agencia espacial, algo que tienen las principales potencias con actividades en este terreno. Según Arruego, las declaraciones de Guindos tras la reunión afirmando que España no necesita una agencia espacial han sentado muy mal en el sector. Esto es lo que me ha contado:

¿Por qué Guindos no quiere una agencia española del espacio?

Es gracioso, porque en cambio sí reconocía que hace falta coordinación entre todos los actores espaciales en España. Pues eso es precisamente, entre otras muchas cosas, lo que haría una agencia. Yo creo que siguen pensando que supondría un coste, y no se dan cuenta de que realmente existen ya todos los actores necesarios en España para hacer una agencia de verdad, ¡y por tanto una buena coordinación podría incluso disminuir gasto! Debería ser no un mero órgano gestor, sino una agencia con capacidad técnica y tecnológica, que defina y desarrolle programas propios tirando de la industria nacional, y estrategias internacionales y especialmente en la ESA; que aúne ingeniería de sistemas, I+D tecnológico y científico, la gestión económica, las relaciones con la ESA… En fin, una Agencia con mayúsculas.

Una pena. Lo considero otra oportunidad perdida por la falta de visión de nuestros políticos, sin duda mal asesorados. Otros cuatro años perdidos para que España termine de situarse en el mapa espacial internacional.

¿Hay nuevos datos sobre qué le ocurrió a Schiaparelli?

Como ya sabrás, se produjeron fundamentalmente dos eventos que provocaron la colisión: la suelta prematura del paracaídas y el corto encendido de los retrocohetes. Se ha especulado mucho sobre un fallo del altímetro radar, pero no parece estar allí el problema. Analizada la telemetría de la Unidad de Medida Inercial (IMU) que mide las aceleraciones de la nave durante el descenso, se observa que hay un breve lapso de tiempo (inferior a un segundo) en el que una de las medidas está saturada. Dado que el ordenador va calculando la orientación de la nave en base a las medidas acumuladas de esta IMU, durante el tiempo que ésta se satura no dispone de una información fidedigna. Ese dato de la IMU te permite saber cómo está orientada la nave respecto al suelo, y el radar te da la distancia al mismo según avanza la nave. Al estar equivocado el dato de la orientación, la nave llegó a obtener un valor que indicaba que la distancia real (en vertical) al suelo era negativa. Es decir, que había aterrizado. Y por eso cortó los retrocohetes.

Otra cosa que hizo, y esto es curioso, fue encender DREAMS, la estación meteorológica que transportaba y en la que participaba el INTA. DREAMS no debía encenderse hasta después del aterrizaje, pero como el ordenador pensó que había aterrizado aún estando a unos tres kilómetros de altura, nos encendió. Hay unos 40 segundos de telemetría relativa al estado de DREAMS, que era cien por cien nominal. Podemos decir que hemos llegado a Marte, pero poco rato.

¿Se ha averiguado algo sobre cuál fue la causa de ese error de percepción de Schiaparelli?

Aún se desconoce, y dudo que llegue a conocerse con un 100% de seguridad. La nave sufría unas aceleraciones digamos que laterales mayores de lo esperado pero, ¿por qué? ¿Rachas de viento fuerte? ¿Un mal despliegue del paracaídas? Eso no sé si llegaremos a saberlo con seguridad.

ExoMars 2020 sigue adelante, pero ¿en qué afectará el fracaso de Schiaparelli desde el punto de vista técnico?

La ESA trata de ser positiva en su análisis del resultado de ExoMars 2016. La realidad es que TGO está funcionando de momento según lo esperado, lo cual es un gran éxito. Y Schiaparelli, por mucho que suene a excusa, es cierto que era un módulo de demostración con el objetivo de permitirnos aprender a aterrizar en Marte. De alguna manera ha cumplido su misión en ese sentido, pues como ves se ha aprendido mucho de la telemetría enviada durante el descenso. Se reforzarán los ensayos a los elementos críticos y se revisarán algunas secuencias de tomas de decisiones. Se ha aprendido, sin duda.

¿Y este aprendizaje ofrecerá más garantías de éxito a la próxima fase?

Sí, en 2020 deberíamos ser capaces de aterrizar con más garantías. No es trivial, aún así. No sólo porque nunca lo es (el conocimiento de la atmósfera de Marte sigue siendo muy incierto), sino porque la nueva misión es bastante más pesada (algo así como el triple si no recuerdo mal), requiere el uso de dos paracaídas (uno hipersónico y otro subsónico), etcétera. Hay diferencias. Pero hay que ser optimista y sobre todo trabajar duro en los elementos críticos y en sus ensayos. Creo que irá bien.

¿Cuál es tu predicción sobre el futuro de las misiones tripuladas?

Como sabes, hay dos grandes corrientes de pensamiento en torno a cómo ir a Marte. Una pasa por ir llevando todo lo que nos hace falta para volver. Empezando por el combustible para el despegue de vuelta. Se barajan naves muy grandes, a menudo con ensamblajes en órbita porque la capacidad de despegue de la Tierra no daría para lanzarlas de una vez.

La otra aproximación pasa por emplear naves más pequeñas, tripulaciones muy reducidas, y hacer uso intensivo de ciertos recursos existentes en Marte. Por ejemplo, es posible generar el combustible allí para un despegue desde Marte, llevando sólo una pequeñísima parte de sus componentes (hidrógeno, en concreto), y obteniendo carbono y oxígeno de la atmósfera de Marte, rica en CO2.

Yo creo que hasta la fecha siempre se ha hablado más de la primera aproximación. Yo a día de hoy soy más partidario de la segunda. Creo que es la más realista para un primer viaje tripulado, y que terminará imponiéndose. Probablemente la tecnología permita tenerla lista en unos 15 años desde que se decida ponerse con ello. Pero nadie se ha puesto seriamente aún. Existe la Iniciativa Mars Direct desde hace la tira, pero nunca ha sido el enfoque adoptado por las grandes agencias, ni parece que lo sea ahora por gente como Elon Musk. Creo que si hay un cambio de enfoque veremos humanos en Marte bastante antes de la mitad del siglo. Si no lo hay, ya veremos.

¿Son un placebo los botones de los semáforos?

Recuerdo un cuento de Richard Matheson titulado Button, Button, en el que un extraño ofrecía a una pareja con graves problemas económicos la posibilidad de ganar una gran cantidad de dinero simplemente pulsando el botón de una caja. Pero si decidían hacerlo, alguien a quien ellos no conocían iba a morir. Mientras discutían el dilema moral al que se enfrentaban, la mujer decidía abrir la caja y descubría que estaba vacía; bajo el botón no había ningún mecanismo.

La historia me ha venido a la mente a propósito de un artículo publicado hace unas semanas en el New York Times sobre los botones placebo. A algunos les llegará de sorpresa, a otros no, y muchos siempre lo habrán sospechado: algunos de los botones que encontramos en los ascensores y que sirven para cerrar las puertas, o que en los semáforos nos invitan a pulsar para esperar el verde, o los mandos que regulan el termostato de la temperatura en las oficinas, tal vez sean más falsos que un Mondrian pintado por mi hijo de cuatro años.

Un botón de semáforo. Imagen de Wikipedia.

Un botón de semáforo. Imagen de Wikipedia.

Según escribe Christopher Mele en el diario neoyorquino, en EEUU los botones de cerrar puertas en los ascensores funcionaban hasta 1990. Entonces se aprobó en aquel país una ley de discapacidad que obligaba a dejar un margen suficiente para que las personas en silla de ruedas o con otras dificultades de movilidad tuvieran tiempo suficiente de entrar en los acensores, lo que obligó a deshabilitar los botones de cerrar puertas. Desde entonces, al menos allí, estos pulsadores solo hacen algo si se introduce la llave que usan los empleados de mantenimiento.

Algo similar ocurre con los termostatos de muchas oficinas, que son de pega. Según explica el artículo, el simple hecho de hacer creer a los trabajadores que pueden regular la temperatura para sentirse más a gusto les hace sentirse más a gusto, aunque la manipulación del termostato no tenga ningún efecto real sobre la temperatura. Según una fuente del sector citada por Mele, un falso termostato reduce en un 75% las llamadas a la asistencia técnica.

Este último dato ilustra por qué esta existencia de botones falsos no se contempla como un resto del pasado a eliminar, sino que incluso se continúa fomentando. ¿Y por qué? En 1975, una psicóloga llamada Ellen Langer publicó un célebre estudio en la revista Journal of Personality and Social Psychology en el que acuñaba una expresión, la “ilusión del control”. Langer demostraba que muchos jugadores actúan u optan de determinadas maneras porque piensan que eso aumenta sus posibilidades de ganar, cuando en realidad esas acciones u opciones no tienen ningún efecto.

Pensemos en la Lotería de Navidad, ya tan próxima: muchos eligen números que representan fechas concretas, que les resultan significativos o que les parecen “bonitos”. Pero en realidad, todos los números del bombo tienen teóricamente la misma probabilidad de resultar premiados.

Esta ilusión de tener el control sobre un resultado que realmente escapa a nuestro poder es también la que justifica la existencia de los botones placebo: como en el caso de los termostatos, resulta satisfatorio pensar que tenemos el dominio de la situación, ya sea regular la temperatura de la oficina, cerrar las puertas del ascensor o detener el tráfico para cruzar la calle. Todo ello apela a lo que los psicólogos llaman el sentido de agencia, el sentimiento de que tenemos control sobre nuestras acciones y sus consecuencias.

El último ejemplo de los que he citado es mi favorito. Uno, como padre responsable, trata de enseñar a sus criaturas a no morir atropelladas, instruyéndoles sobre cómo cruzar la calle en tiempo y forma. Siempre que hay uno de esos botoncitos verdes que dicen “peatón pulse – espere verde”, les digo que pulsen. Lo cual hacen encantados, ya que a los niños les chifla apretar botones. Y si piensan que los coches se han parado gracias a ellos, entonces ya no caben en sí de orgullo. Pero uno siempre se pregunta: ¿realmente ese botón hace algo?

Según parece, no hay una respuesta única. El artículo de Mele cuenta que en su día los botones de los semáforos se colocaron con una finalidad genuina, para ayudar a regular el tráfico. Pero con el tiempo, cuando se introdujo el control por ordenador, dejaron de ser funcionales. Según Mele, en Nueva York hoy solo quedan unos pocos que responden a quien los pulsa.

Un estudio publicado en 2013 por investigadores de Microsoft y la Universidad de Michigan enfocaba el estudio de estos artefactos desde el punto de vista de la interacción humano-máquina para acuñar otra expresión: “engaño benevolente”, una especie de mentira piadosa que beneficia al usuario. Supuestamente, el hecho de apretar el botón de los semáforos no solo satisface el sentido de agencia, sino que al hacerlo el peatón tenderá a esperar con más paciencia el cambio de semáforo y no se lanzará a tratar de sortear el tráfico en rojo.

Un artículo de la BBC publicado en 2013 explicaba que el sistema informatizado de regulación de tráfico empleado en Reino Unido, llamado SCOOT (siglas de Split Cycle Offset Optimisation Technique), pone los botones en modo placebo durante el día, cuando el tráfico es intenso, y los activa por la noche.

Por otra parte, este trabajo de la ingeniera industrial Emma Holgado nos cuenta que el SCOOT se emplea también en Madrid, lo que nos lleva a una clara conclusión: si viven en Madrid (y supongo que en Barcelona y otras ciudades del país), apretar el botón durante el día no les servirá de nada. Pero háganlo, que los placebos también son eficaces incluso cuando sabemos que lo son. Y si van con niños, no les quiten la ilusión de pensar que son ellos quienes detienen el tráfico. Se sienten casi como superhéroes.

Pasen y vean cómo cambia el mundo en 32 años

¿Quieren ver cómo la “ciudad del Pocero” de Seseña y su infame cementerio de neumáticos surgen de la nada? ¿O cómo el desierto de El Ejido ha ido cubriéndose de plástico? ¿O cómo la valla de Melilla dibuja una frontera que antes era indistinguible? ¿O cómo brota en el mapa el aeropuerto de Castellón como si fuera una seta en otoño? ¿O cómo han crecido Valencia y su puerto desde 1984? ¿O cómo en Rivas Vaciamadrid aparece una ciudad sobre los sembrados?

El mar de plástico de los invernaderos de El Ejido. Imagen de Google.

El mar de plástico de los invernaderos de El Ejido. Imagen de Google.

Google acaba de actualizar la herramienta Timelapse de Google Earth Engine, un sistema creado en 2013 que muestra la progresión del paisaje desde 1984 hasta 2016 combinando más de cinco millones de imágenes tomadas por cinco satélites con participación de la NASA, la ESA y el Servicio Geológico de EEUU.

La nueva actualización recién publicada incluye cuatro años más de imágenes y nuevas fotografías actuales que aumentan la resolución de las vistas. El nivel de detalle no es comparable al de Google Earth, así que olvídense de ver cómo se construyó su casa. Pero es suficiente para apreciar los grandes cambios que transforman el paisaje.

Lo que traigo aquí son algunos ejemplos destacados en distintos lugares de España donde el cambio ha sido especialmente intenso, pero Timelapse da para pasar una tarde recorriendo el planeta y contemplando cómo surgen las ciudades en las arenas de los Emiratos Árabes, cómo Las Vegas devora el desierto circundante, cómo se reducen los glaciares o cómo el mar de Aral va secándose a causa del masivo proyecto de irrigación emprendido por la antigua URSS. Los responsables de Google Earth Engine han publicado vídeos con algunos de los ejemplos más brutales en su canal de YouTube.

Para ver las animaciones hay que pulsar el botoncito de “play” en el rincón inferior izquierdo. Bajo el cartel del año hay otro mando para regular la velocidad.

La “ciudad del Pocero” de Seseña aparece con forma casi triangular, lamiendo por la derecha la también nueva autopista R-4. Al otro lado de esta carretera surge el cementerio de neumáticos que ardió la pasada primavera.

El crecimiento del mar de plástico en El Ejido:

La valla de Melilla:

Valencia y su puerto:

Aeropuerto de Castellón:

Rivas Vaciamadrid, una de las ciudades españolas que más han crecido en las últimas décadas:

Los Nobel de Física y Química premian los chips prodigiosos

Si no fuera porque no es así como funciona, se diría que los comités de los Nobel de Física y Química de este 2016 se han puesto de acuerdo para premiar un mismo campo, las nanocosas del nanomundo. Dirán ustedes que gran parte del trabajo de la física, la química y la biología consiste precisamente en indagar en todo aquello que no podemos ver a simple vista, y no se equivocarán. Si fuera posible miniaturizarnos –esta semana volví a ver aquella divertida película de Dante y Spielberg, El chip prodigioso–, la naturaleza no tendría misterios para nosotros. No habría nada que investigar; bastaría con abrir los ojos y ver qué pasa.

Fotograma de la película 'El chip prodigioso' (1987). Imagen de Warner Bros.

Fotograma de la película ‘El chip prodigioso’ (1987). Imagen de Warner Bros.

Pero dentro de todo ello, hay un área transversal de la ciencia que se dedica específicamente a explorar cómo es el paisaje a esa escala diminuta, cómo son sus montañas, valles y costas, y a fabricar aparatos que puedan desenvolverse en ese entorno de lo diminuto del mismo modo que lo hace un rover en Marte. No es un minimundo ni micromundo, ya que el prefijo “micro” comprende los tamaños en el rango de la célula y sus partes. La unidad de medida allí es el nanómetro, la millonésima de milímetro, y desde ahí hacia abajo. En algún momento, los científicos comenzaron a referirse a ese mundo añadiéndole un “nano”: nanotecnología, nanoingeniería, nanociencias.

Nuestro mundo tiene sus formas, lo que llamamos el relieve topográfico. Esas formas pueden cambiar a lo largo del tiempo debido a fuerzas de la naturaleza, pero siguiendo ciertas reglas: cuando en una montaña se ha horadado una cueva, un derrumbamiento podrá hacerla desaparecer, pero la montaña no puede deshoradarse y volver a quedar como estaba. Y un río no puede correr sobre la cumbre de una montaña.

Hay una rama de las matemáticas que estudia las formas, o topos, y cómo pueden transformarse unas en otras a través de transiciones permitidas: por ejemplo, se puede deformar, pero no cortar y pegar. Una hoja de papel puede convertirse en una silla de montar, pero no en una bola. La topología se aplica a áreas de las matemáticas como el álgebra y la geometría, pero también a la física.

El funcionamiento de la materia está relacionado con su estructura. Por ejemplo, un metal conduce la electricidad porque permite el libre movimiento de los electrones. Algunos físicos exploran las fronteras de ese nanomundo, los límites exóticos de la materia donde aparecen propiedades inusuales; por ejemplo, los semiconductores o los superconductores. Como los paisajes, esa materia tiene sus formas y sus reglas, lugares inaccesibles por donde un río no puede discurrir, o un electrón no puede moverse. De la aplicación de la topología a estas formas exóticas de la materia y a sus cambios (como de sólido a líquido) pueden aprovecharse algunas de esas propiedades raras. La capacidad de manipular y controlar a voluntad la conductividad de un material es la base de toda la tecnología electrónica que utilizamos hoy.

El Nobel de Física 2016 ha premiado a los británicos (los tres trabajando en EEUU) David Thouless, Michael Kosterlitz y Duncan Haldane por haber sentado en los años 70 y 80 las bases de esa topología de la materia exótica y de sus transiciones de fase. Por cierto que el padre de Kosterlitz, Hans, bioquímico, se quedó a un paso del Nobel como uno de los descubridores de las endorfinas.

En ese nanopaisaje, a partir de los años 80 algunos investigadores empezaron a construir máquinas, sistemas formados por piezas que se mueven cuando se les aplica energía, del mismo modo que una batidora gira cuando se enchufa a la red eléctrica. Las piezas de estas máquinas son moléculas, diseñadas con una forma específica que les permite desempeñar la función deseada una vez que ocupan su lugar, tal como hacen los ingenieros industriales. La primera de estas piezas, obra del francés Jean-Pierre Sauvage en 1983, era una simple cadena de dos eslabones que permitía el movimiento libre.

La nanoingeniería de máquinas se inspira en la propia naturaleza. Unos años antes habían comenzado a descubrirse los primeros nanomotores (máquinas rotativas) naturales, comenzando por el flagelo que emplean algunas bacterias para propulsarse en el agua y que consiste en un mecanismo giratorio. En 1991, el escocés Fraser Stoddart logró construir un nanoanillo que podía girar y desplazarse alrededor de un eje. Ocho años después, el holandés Bernard Feringa construía el primer nanomotor, una especie de ventilador de una sola aspa.

Sauvage, Stoddart y Feringa han sido premiados con el Nobel de Química 2016. Desde entonces se han construido nuevas nanomáquinas, como nanoascensores o nanocarretillas. Algunas de ellas se inspiran en mecanismos previamente inventados por la naturaleza; por ejemplo, nuestros músculos funcionan gracias a una nanomáquina deslizante, un sistema similar al que también sirve para que nuestras células expulsen al exterior ciertas sustancias, como moléculas de defensa contra infecciones.

Nanocoche Nanobobcat, de la Universidad de Ohio. Imagen de OU.

Nanocoche Nanobobcat, de la Universidad de Ohio. Imagen de OU.

Se espera que en el futuro una de las principales aplicaciones de las nanomáquinas sea la medicina. Como en El chip prodigioso, pero con un Dennis Quaid molecular. También servirán para usos como construir nuevos sensores y sistemas de almacenamiento de energía. Por el momento, una de las ramas más sorprendentes de la nanoingeniería es la fabricación de nanocoches, máquinas capaces de desplazarse sobre una superficie utilizando una fuente de energía, por ejemplo la luz.

De hecho, este año se celebrará en Toulouse (Francia) la primera carrera mundial de nanocoches, como expliqué con detalle en un reportaje a finales del año pasado. Varios laboratorios del mundo han presentado sus prototipos de lo más variado, como una versión nanoscópica de Los autos locos. Estaba previsto que la carrera se celebrara el 14 y 15 de este mes, pero los organizadores han decidido posponerla para dejar algo más de tiempo a las nanoescuderías para que pongan a punto sus modelos, que deberán correr sobre una pista de oro en el vacío a -268 ºC.

Cuernos sintéticos de rino, ¿solución o simple negocio?

Hoy traigo una muestra de que no todos aquellos interesados en que los rinocerontes continúen existiendo dentro de 20 años están convencidos de que la actual prohibición del comercio internacional de cuernos sea lo mejor para lograrlo. Quienes sí lo piensan, como la Born Free Foundation (BFF) de la que hablé ayer, alegan razones cuyo resumen general viene a ser que la legalización podría elevar la demanda, y el riesgo de esta posibilidad aconseja no tocar el veto vigente desde 1977.

Un rinoceronte blanco en el Parque Nacional de Meru (Kenya). Imagen de J. Y.

Un rinoceronte blanco en el Parque Nacional de Meru (Kenya). Imagen de J. Y.

Pero ¿ha funcionado el veto? Este gráfico, publicado en Science en 2013, muestra de un vistazo la evolución de la caza furtiva de rinos de 2000 a 2012.

poaching

Organizaciones como BFF alegan que hasta 2007 el veto estaba cumpliendo su función, ya que el furtivismo contra los rinos se mantenía a niveles muy bajos. Y que el ascenso vertiginoso a partir de 2008 es un fenómeno esporádico no relacionado con la demanda tradicional, sino provocado por la repentina moda en Vietnam de adquirir polvo de cuerno de rinoceronte como capricho caro de los nuevos millonarios.

Pero si los datos son objetivos, las interpretaciones son libres. ¿Realmente fue el veto lo que mantuvo el furtivismo a raya hasta 2007? ¿O fue simplemente la ausencia de demanda, ya que China había retirado en 1992 el cuerno de rino su farmacopea tradicional a raíz de su entrada en el CITES? Sin duda, el surgimiento de una nueva oleada de demanda a partir de 2008 disparó la matanza de rinos a pesar del veto. Por este motivo, hay quienes piensan que no hay pruebas suficientes para evaluar los efectos del veto ni mucho menos su posible modificación.

Entre estos se cuenta la ONG británica Save the Rhino International (STRI), la mayor entidad dedicada específicamente a la conservación de los rinocerontes, y uno de cuyos principales promotores fue Douglas Adams, autor de La guía del autoestopista galáctico. Según me cuenta Cathy Dean, directora de STRI, Suráfrica emprendió un exhaustivo estudio de 18 meses a cargo de un comité de expertos, con vistas a la posible presentación de una propuesta de legalización del cuerno de rino en la reunión del CITES que se celebra estos días en Johannesburgo. Sin embargo, finalmente la moción no fue presentada. Por este motivo la pequeña Suazilandia, que planeaba votar a favor de la propuesta para poder vender su stock de cuernos, decidió en el último momento presentar la suya propia de manera precipitada.

“Suráfrica no ha publicado los resultados del comité”, dice Dean. “¿No sería útil para las partes del CITES, los 182 países, poder ver el informe del comité para poder tomar una decisión informada?”, se pregunta. La visión de STRI es que se trata de una cuestión compleja con múltiples variables, y que por tanto no se puede liquidar con ideas preconcebidas o eslogans. “En SRTI aún no tenemos una postura definitiva sobre si legalizar el comercio internacional de cuerno de rino ayudaría a asegurar la supervivencia a largo plazo de las especies de rinos, o si aceleraría su extinción”, concluye Dean. “Creemos que no hay suficientes pruebas disponibles para formarnos una opinión clara”.

Dean confiesa no saber si realmente la legalización elevaría la demanda, una postura mucho más juiciosa que la de quienes afirman tajantemente que sí. Hoy por hoy, lo único que sabemos es que la demanda ha aumentado sin la legalización. Por ello, Dean considera que como mínimo el veto no es una varita mágica, y que la batalla deberá continuar en todos los campos donde se libra actualmente, desde la sabana hasta las calles de Vietnam.

En esta lucha se ha abierto recientemente un nuevo frente. Un puñado de compañías biotecnológicas han anunciado que pronto comenzarán a fabricar cuerno de rino artificial mediante nuevas tecnologías de bioimpresión en 3D. Cuando empresas como Pembient o Rhinoceros Horn anunciaron sus planes de poner a la venta este producto, muchos palidecieron, ya que este material abre un agujero legal no cubierto por el CITES (nota: las resoluciones del CITES afectan únicamente al comercio internacional, mientras que cada país es libre para legislar sobre el comercio interior).

La gran mayoría de las ONG, incluyendo BFF y STRI, se han manifestado en contra de la comercialización de este producto. No todas: Traffic, que lucha contra el comercio internacional de especies, fue más cauta al sugerir que esta vía no debería descartarse directamente sin un análisis más profundo.

No por casualidad, Matthew Markus, CEO de Pembient, está presente estos días en la reunión del CITES en Johannesburgo, según contó Business Insider. Pero la legitimidad de la aspiración de Markus de poner a la venta un producto que no es ilegal se tambalea con sus declaraciones. El empresario dijo a BI que reducir la demanda de cuerno “no sería ético”, ya que “estas prácticas se basan en miles de años de tradición cultural; son mucho más viejas que Acción de Gracias”.

Lo cual es un engaño deliberado, ya que Markus sin duda debe conocer que la nueva demanda vietnamita no guarda absolutamente ninguna relación con la medicina tradicional china, sino que es una moda de nuevos ricos nacida del rumor según el cual un expolítico de aquel país se había curado el cáncer tomando polvo de cuerno. Como he mencionado más arriba, el cuerno de rino ya no está presente en el recetario oficial publicado por la Administración Estatal de la Medicina Tradicional China. Las palabras de Markus revelan su lógico deseo de una demanda potente, escudado en un argumento falaz.

Por otra parte, y si la apertura al comercio de cuerno natural podría legitimar el producto ante sus consumidores (como me decía la portavoz de BFF), mucho más aún lo haría la puesta a la venta de un sucedáneo sintético. Mientras organizaciones como WildAid se empeñan en la ardua labor de convencer al público en el sureste asiático de que el cuerno de rinoceronte no tiene absolutamente ninguna propiedad terapéutica, psicotrópica ni afrodisíaca (su composición es la misma que la del pelo y las uñas), el efecto que tendría la venta de un sustituto artificial puede resumirse en una frase al estilo de eso que últimamente viene llamándose cuñadismo, pero en versión vietnamita: “¿Lo ves? Si no sirviera para nada, ¿crees que lo venderían los americanos?”.

B. V. Larson: “Los autores de ciencia ficción somos cheerleaders de la innovación”

Mañana, 21 de septiembre de 2016, H. G. Wells habría cumplido 150 años.

Si volviese hoy, no nos encontraría viajando en el tiempo, volviéndonos invisibles o recuperándonos de una invasión marciana, pero sí descubriría que aún seguimos pensando, debatiendo y escribiendo sobre todo esto.

Y es que tal vez el mayor legado de los grandes maestros de la ciencia ficción sea su capacidad de haber sembrado ideas que se perpetúan ejerciendo una poderosa influencia, no solo en los autores posteriores, sino también en el propio pensamiento científico.

B. V. Larson. Imagen de YouTube.

B. V. Larson. Imagen de YouTube.

Mañana tocará hablar de Wells, pero hoy quiero abrir boca con uno de sus muchos herederos. Recientemente tuve ocasión de hacer esta breve entrevista al californiano B. V. Larson. Conocido sobre todo por su serie Star Force, Larson es un autor inexplicablemente prolífico que ha forjado su carrera por la vía de la autopublicación. Una elección que le ha funcionado de maravilla, a juzgar por su presencia habitual en la lista de Amazon de los más vendidos en ciencia-ficción.

Larson posee un fenotipo que interesa especialmente a este blog: es uno de los numerosos autores de ciencia-ficción que han surgido desde dentro, desde el mundo de la ciencia y la tecnología. En su caso, es profesor en ciencias de la computación y autor de un exitoso libro de texto que continúa reeditándose.

Según me cuenta, en un momento de su vida trabajó como consultor de DARPA, la agencia de investigación del Departamento de Defensa de EEUU, en la Academia Militar de West Point. Con todo este equipaje, Larson es el tipo ideal a quien hacerle algunas preguntas sobre la relación entre la ciencia y su versión ficticia.

¿Cómo se relaciona la ciencia-ficción con el progreso científico y tecnológico?

No hay duda de que la ciencia-ficción influye en la innovación, pero también lo contrario. En la mayoría de los casos, es difícil decir cuál de las dos comienza el proceso. Los autores de ciencia-ficción son futurólogos que leen las nuevas tendencias en la industria y la ciencia, convirtiéndolas en historias de ficción con extrapolaciones. A su vez, los ingenieros leen estas historias y obtienen inspiración. En otras palabras, para entender el proceso yo pensaría en el papel del escritor creativo y el mundo real de la ingeniería, ambos como partes de un ciclo de innovación.

¿Hay algunas épocas en las que esta influencia haya sido mayor?

Yo diría que la ciencia-ficción fue muy importante desde 1900 hasta la década de 1970, pero menos de 1980 a 2010. Solo ahora está volviendo a ser lo que fue. ¿Por qué? Porque en los 30 años entre 1980 y 2010, la mayoría de la ciencia-ficción que se leía ni siquiera intentaba ser técnica, sino que se centraba en cuestiones sociales. Esto está cambiando ahora, y la ciencia-ficción está volviendo a ser lo que fue originalmente y a recapturar el corazón de los ingenieros.

Se suele hablar del papel de los autores como profetas tecnológicos. ¿Hasta qué punto no predicen, sino que marcan el camino a seguir?

Los ingenieros son quienes merecen la mayor parte del crédito. Los escritores de ciencia-ficción sirven para inspirar, para atraer a la gente joven a expandir el mundo a través de la tecnología, más que para hacer posible lo imposible. Somos más bien cheerleaders, oradores motivacionales, más que poderosos magos. Puede parecer que predecimos el futuro, pero lo que realmente hacemos es estudiarlo y pensar sobre él para hacer predicciones lógicas.

¿Y cuáles serían ahora esas predicciones? ¿Habrá algo de esos avances típicos del género y siempre pendientes, como coches voladores, naves espaciales más rápidas, reactores personales…?

Yo diría que la mayor parte de esas áreas ya han tenido su oportunidad. Piensa en un avión de pasajeros: si volvieras a 1975 y subieras a un avión, la experiencia, la velocidad de vuelo y todo lo demás sería prácticamente igual que hoy. Esto es normal en tecnología. Una vez que una tecnología nueva y poderosa se hace realidad, hay un período de unos 50 años de innovación muy rápida, y después se frena. Con los aviones, pasaron menos de 40 años desde el primer vuelo de los hermanos Wright hasta el ataque japonés a Pearl Harbor con bombarderos. Poco después teníamos aviones volando a todas partes. Y después nada. No ha habido cambios reales en 40 años.

Entonces, ¿qué áreas están ahora en ese período de innovación rápida?

Yo esperaría grandes cambios en el área de la biología. Pastillas que te permitan vivir 10 o 20 años más. Órganos impresos en 3D para reemplazar los dañados. O quizás nanites [nanorrobots] que practiquen nanocirugía dentro de nuestro cuerpo. Implantes cibernéticos, ese tipo de cosas. En eso se centra mi serie Lost Colonies.

Drácula, Poe, el Kama Sutra y OK Go sobrevivirán al fin del mundo

No es que la música de OK Go sea de mi más especial predilección (como ya he manifestado aquí, mis preferencias suelen ir por otros sonidos), pero admiro lo que hacen estos cuatro tipos de Chicago. Adoro a la gente que camina en sentido contrario a los demás, a quienes se toman demasiadas molestias para algo que realmente no lo requiere, y a los que se enfrascan en algo anteponiendo la pasión al plan de negocio. Es decir, a quienes violan las tres leyes fundamentales del universo: la ley de la inercia, la ley del mínimo esfuerzo y la ley de la conservación de lo que sea.

Captura del vídeo de OK Go. Imagen de YouTube.

Captura del vídeo de OK Go. Imagen de YouTube.

Para quien aún no los conozca, explico que lo más distintivo de OK Go son sus vídeos. Entre tanta saturación de efectos digitales y realidad virtual, ellos se diferencian por organizar unas complejísimas coreografías reales, increíblemente sincronizadas, que a menudo se ruedan en un solo plano secuencia y que además en muchos casos juegan con la ciencia aplicada. Si les interesa descubrirlos, basta una simple búsqueda en YouTube. Pero hay un motivo para que hoy traiga aquí uno de sus clips, el de This Too Shall Pass.

Para este tema, organizaron un montaje al estilo de lo que en EEUU llaman una máquina de Rube Goldberg. Los que pasamos de los 40 tenemos aquí un equivalente cultural propio, los Grandes Inventos del TBO, cuyo principal artífice fue el dibujante catalán Ramón Sabatés.

Tanto Goldberg como Sabatés presentaban a un ficticio profesor (Lucifer Gorgonzola Butts en la versión americana, Franz de Copenhague en la española) que diseñaba unas complicadísimas máquinas cuyo resultado era una tarea muy tonta, fácilmente accesible por medios infinitamente más simples; por ejemplo, limpiar la boca con la servilleta. En el caso del vídeo de OK Go, el resultado final de su máquina es disparar un chorro de pintura a cada uno de los integrantes de la banda.

El motivo por el que hoy lo traigo aquí es que este clip de OK Go es el primer vídeo jamás codificado en forma de ADN. Ya he explicado aquí y en otros medios en qué consiste la codificación de archivos digitales en material genético: se diseña un sistema de conversión del código binario (unos y ceros) a las cuatro bases del ADN (A, T, G y C), se traduce el archivo deseado y se sintetiza una cadena de ADN con esa secuencia.

Y también he explicado por qué esta línea de investigación es interesante: los soportes digitales caducan rápidamente, bien porque se estropean, o bien porque aparecen otros formatos y soportes nuevos que dejan obsoletos a los antiguos. En cuanto a su conservación física, el ADN puede durar cientos de años, miles de años, incluso millones de años, según el sistema de almacenamiento elegido. Y en cuanto a su vigencia tecnológica, si de algo no cabe absolutamente ninguna duda es de que siempre vamos a seguir necesitando dispositivos de lectura de ADN. Las máquinas cambiarán, pero el ADN continuará siendo el mismo por los siglos de los siglos.

Entre los grupos de investigación que trabajan en esta línea se encuentra un equipo de Microsoft Research y la Universidad de Washington (EEUU). El pasado abril, los investigadores presentaron en un congreso la codificación de cuatro imágenes en forma de ADN. Ahora han anunciado un nuevo hito: la conversión a material genético de la Declaración Universal de los Derechos Humanos en más de 100 idiomas, los 100 libros de dominio público más descargados del Proyecto Gutenberg, la base de datos de semillas del proyecto Crop Trust y, claro está, el vídeo de OK Go en alta definición. En total, 200 MB; una ridiculez para los tamaños digitales, un gran salto para el almacenamiento en ADN.

Según Karin Strauss, la investigadora principal del proyecto en Microsoft, eligieron este vídeo de OK Go porque guarda paralelismo con el trabajo que ellos llevan a cabo. “Son muy innovadores y están reuniendo en su campo cosas diferentes de distintas áreas, y sentimos que estamos haciendo algo muy similar”.

Naturalmente, la codificación en ADN tiene sus inconvenientes, y siempre los tendrá. Tanto escribir como leer una secuencia genética es mucho más lento que escribir o leer un archivo binario, y más costoso. En general el sistema no se contempla como para un uso inmediato de los datos en dispositivos móviles, sino para crear repositorios a largo plazo. Pero a cambio, la densidad de información que puede alcanzar el ADN es 100 millones de veces mayor que las cintas magnéticas empleadas hoy en los grandes centros de datos: según los investigadores de Washington, los datos que llenarían todo el volumen de un hipermercado en formato electrónico caben en un terrón de azúcar si se traducen a ADN.

Pero sobre todo, su enorme ventaja es la durabilidad. Si algún día llegara ese fin del mundo que tantas veces hemos contemplado desde la butaca y del que tanto llevan advirtiéndonos, difícilmente se salvarían los datos digitales. Suelen decirnos que en el mundo existen muchas copias de toda la información que volcamos en la red, como estas palabras que estoy escribiendo. Pero ¿cuántas son “muchas”? ¿Decenas? ¿Centenas? ¿Millares, como mucho? Cada una de esas copias está escrita en un sofisticado y frágil soporte electrónico. ¿Cuántos de ellos se salvarían en caso de una catástrofe planetaria?

Como ha demostrado el investigador del Instituto Federal Suizo de Tecnología en Zúrich (ETH) Robert Grass, el ADN puede encapsularse en fósiles artificiales capaces de proteger la información que guardan durante miles o tal vez millones de años. El método consiste en encapsular la molécula en minúsculas bolitas de sílice de 0,15 milésimas de milímetro; es decir, granos de arena muy fina.

Hagamos una pequeña cuenta recreativa: según las compañías EMC Corporation e International Data Corporation, en 2020 el universo digital ocupará un total de 44 zettabytes (ZB), o 44.000 millones de terabytes (TB), o 44 billones de gigabytes (GB). La compañía Cisco calculó que un ZB ocuparía el mismo volumen que la Gran Muralla China. Tomando una cifra publicada para el volumen de la muralla de 34.423.725.600 pies cúbicos, o 974.771.357 metros cúbicos, tenemos que en 2020 el volumen total de datos digitales del planeta será de 42.889.939.708 metros cúbicos.

En forma de ADN, la densidad de almacenamiento es 100 millones de veces mayor, lo que nos daría un volumen de unos 429 metros cúbicos. La raíz cúbica de 429 es aproximadamente 7,5. Es decir, que en un cubo de arena de siete metros y medio de lado cabría, en forma de ADN, toda la información digital jamás producida desde el origen de la humanidad hasta 2020.

Y cuando se sintetiza ADN, no se fabrica una sola copia, sino millones. Playas y playas de nanocápsulas de sílice que conservarían todo lo que fuimos, durante millones de años. Por supuesto que, en caso de apocalipsis, deberíamos esperar a que los supervivientes reinventaran de nuevo la tecnología necesaria para leerlo. O a que otros lo hicieran por nosotros y así llegaran a saber quiénes fuimos.

Por si se lo están preguntando, en ese puñado de libros ya codificados para la eternidad solo hay uno de un autor español, y no es necesario que les aclare de cuál se trata. Pero lamento comunicarles que esta versión comienza así:

In a village of La Mancha, the name of which I have no desire to call to mind, there lived not long since one of those gentlemen that keep a lance in the lance-rack, an old buckler, a lean hack, and a greyhound for coursing. An olla of rather more beef than mutton, a salad on most nights, scraps on Saturdays, lentils on Fridays, and a pigeon or so extra on Sundays, made away with three-quarters of his income.

Antes de que nadie se lleve las manos a la cabeza, insisto en lo que he mencionado más arriba: son los 100 libros más descargados. El Proyecto Gutenberg también dispone de la versión original en castellano. Pero si el Quixote acumula más del doble de descargas que el Quijote, la culpa no es del Proyecto Gutenberg.

Y sí, están el Drácula de Stoker, La metamorfosis y El proceso de Kafka y (solo) dos de los cinco volúmes de las obras completas de Poe. Y Wells. Y Anna Karenina. Y Moby Dick. Y El corazón de las Tinieblas. Y El retrato de Dorian Gray. Y Madame Bovary. Ah, y el Kama Sutra, para que no se nos olvide nada. Personalmente, y si pudiera elegir, añadiría a Proust, La vida es sueño, algunas cosas de Hemingway, Fitzgerald, Steinbeck… Lovecraft… ¡Dinesen, claro!… Y los rusos… algo más de Verne… Y claro, todo el romanticismo español. Pero también Zola. Y Víctor Hugo. Qué difícil es elegir. Pero por razones que no vienen al caso, me gustaría poder volver a escuchar al menos la obertura de la Cavalleria Rusticana de Mascagni, el Moonriver cantado por Audrey Hepburn, November Rain de Guns N’ Roses, el Ecstasy of Gold/Call of Ktulu/Master of Puppets de Metallica, Janie Jones de los Clash y Ceremony de Joy Division. Y el Script of the Bridge completo de los Chameleons. Habría muchísimos más. Pero con esto creo que bastaría para entretenerme mientras espero el fin.