BLOGS
Ciencias mixtas Ciencias mixtas

Los secretos de las ciencias para
los que también son de letras

Archivo de la categoría ‘Noticia’

Telegrama urgente: cinco claves de las ondas gravitatorias

Era casi un secreto a voces. A finales de 2015, entre la comunidad de físicos corría la idea de que el experimento LIGO podía anunciar este año el descubrimiento de las ondas gravitatorias, y así lo recogimos quienes tenemos asignado el encargo de poner en marcha la bola de cristal para pronosticar lo que la ciencia nos deparará cada año nuevo. Pero dado que LIGO comenzó a funcionar hace más de una década, y que recientemente había sido mejorado y ampliado, parecía que tras el rumor había algo más, aunque sigue siendo pasmoso cómo los físicos responsables del proyecto han sido capaces de mantener la discreción desde el 14 de septiembre pasado, la fecha del gran hallazgo.

He aquí unas breves claves sobre uno de los hallazgos más importantes de la historia de la física, anunciado hoy en rueda de prensa en Washington y publicado al mismo tiempo en la revista Physical Review Letters.

1.

En 1915, Albert Einstein publicó su teoría general de la relatividad, que explica la gravedad como una deformación del tejido espacio-temporal del universo. Una masa deforma este tejido como una bola de bolos sobre una cama elástica; una canica en movimiento giraría en torno a la bola, lo que explica las órbitas de los planetas. Según Einstein, una distorsión violenta de esta alfombra espacio-temporal provocaría ondas que podrían detectarse a distancia, como cuando se tira una piedra a un estanque. Sin embargo, estas ondas son extremadamente tenues.

2.

Desde los años 60 del siglo XX, los científicos comenzaron a diseñar un modo de detectar estas ondas gravitatorias. La idea consiste en construir dos largos túneles perpendiculares, a lo largo de los cuales se hace correr un haz de luz. Dado que las ondas gravitatorias provocan arrugas en el espacio, una onda potente deformaría estos túneles, contrayéndolos o expandiéndolos en una longitud infinitesimal, lo que haría variar el tiempo que la luz tarda en recorrerlos. Sobre esta idea se construyó en EEUU el experimento LIGO con dos sedes, una en Luisiana y otra en el estado de Washington.

3.

Hace 1.300 millones de años, dos agujeros negros que orbitaban uno en torno al otro (o más correctamente, ambos alrededor de su centro de masas) se fusionaron. Cada uno de ellos medía unos 150 kilómetros de diámetro, pesaba unas 30 veces la masa del Sol y giraba a la mitad de la velocidad de la luz. La fusión provocó una violenta emisión de ondas gravitatorias. Pero había que medirlas, y para eso había que disponer de LIGO.

El sistema binario de agujeros negros, antes de la fusión. Imagen de MIT.

El sistema binario de agujeros negros, antes de la fusión. Imagen de MIT.

4.

El 14 de septiembre de 2015, las ondas gravitatorias producidas por la fusión de los dos agujeros negros llegaron a la Tierra, y LIGO pudo detectarlas. Era el primer sistema binario de agujeros negros conocido, y la señal del cataclismo cósmico llegó en un momento en que el ser humano ya disponía de la tecnología necesaria para detectarlo. En palabras de Gabriela González, la física argentina portavoz de LIGO en Luisiana, fue “un regalo de la naturaleza”. Y un regalo que hemos podido escuchar: las frecuencias de las ondas gravitatorias están en el espectro audible para el ser humano. Durante la presentación de la rueda de prensa, transmitida por internet, hemos podido escuchar cómo suena la fusión de dos agujeros negros a 1.300 millones de años luz, como un leve trino cósmico.

5.

Los autores del hallazgo han comparado la primera detección de las ondas gravitatorias al momento en que, hace 400 años, Galileo dirigió un telescopio al cielo. Entonces comenzamos a explorar el cosmos a través de ondas electromagnéticas, ya fueran visibles, ultravioletas, infrarrojas, rayos X, rayos gamma… Desde hoy tenemos un modo completamente nuevo de observar el universo, a través de las ondas gravitatorias, por lo que el hallazgo inaugura una nueva era en la historia de la ciencia.

El zika en tres ideas: hay riesgo, puede llegar y hay que actuar

La primera vez que vi la película Contagio, de Steven Soderbergh, lo hice con un díptero revoloteando por el reverso de mi pabellón auricular; con la mosca tras la oreja, más aún con la primera aparición del guaperas de Jude Law en el papel de bloguero conspiranoico. Law no se ha prodigado en papeles de villano; ¿caería Soderbergh en el facilón (y económicamente rentable en taquilla) argumento a lo Le Carré en El jardinero fiel, dar carnaza a las masas favoreciendo el punto de vista conspiranoico y dejando al personaje de Law como héroe triunfante? (No obstante aclaro, for the record, que la novela de Le Carré estaba basada en un caso real de experimentación clínica ilegal en África).

Así que, cuando la película terminó, casi me faltaron manos para apludir. Soderbergh no solo había reflejado con absoluta veracidad un hipotético caso fielmente realista de pandemia vírica, con epidemiólogos que parecían epidemiólogos y virólogos que parecían virólogos, sino que además había dejado a los conspiranoicos en el lugar que les corresponde, el de trileros de toda la demagogia que se sirve a diario como fast food en internet.

Imagen del virus del Zika al microscopio electrónico de transmisión (partículas oscuras), recientemente publicada por el CDD/ Cynthia Goldsmith.

Imagen del virus del Zika al microscopio electrónico de transmisión (partículas oscuras), recientemente publicada por el CDC/ Cynthia Goldsmith.

Viene esto a cuento del increíble cuento, valga la…, que se ha prodigado en la red a partir de la proclama de un descerebrado en la sección de conspiraciones de Reddit. El tipo en cuestión dijo que el origen de la epidemia de virus del Zika y de los casos de bebés con microcefalia en Brasil coincide geográficamente con el lugar donde hace cuatro años se soltó una población de mosquitos genéticamente modificados para producir descendencia no viable. Y a partir de ahí, la teoría más estúpida jamás lanzada en internet ha tenido que comentarse, para desmentirse, incluso en medios serios (como este).

El conspiranoico en cuestión ni siquiera mencionó, obviamente, que dichos mosquitos se liberaron también en otros lugares donde no ha surgido una epidemia de zika ni de microcefalia (como las islas Caimán o Florida), ni que anteriormente se han ligado casos de microcefalia a virus emparentados con el zika como el del Nilo Occidental, ni que el estudio retrospectivo del anterior brote de zika en la Polinesia ha sacado a la luz anomalías neurológicas que en su día no se relacionaron con una infección antes considerada benigna. Ni por supuesto, y esto es lo fundamental, que la afirmación es un completo disparate biológico sin pies ni cabeza; más allá de la (presunta) coincidencia geográfica, no hay ni siquiera un argumento coherente que rebatir.

Lo anterior no implica que en este preocupante episodio del zika no haya, como ha ocurrido en ocasiones anteriores, elementos perturbadores que obliguen a vigilar muy de cerca todo lo que autoridades y otros actores implicados están haciendo al respecto. En particular, resulta pasmoso que la Organización Mundial de la Salud (OMS) no haya emitido una recomendación de evitar los viajes a Brasil, al menos para las mujeres embarazadas. No hay que ser conspiranoico para sospechar que aquí ha mediado un probable trabajo de lobby por parte de algún organismo para no arruinar los Juegos Olímpicos de Río.

A estas alturas a Margaret Chan, directora general de la OMS, le quedan ya pocos argumentos para defender su gestión. Fue criticada por exceso de reacción con la pandemia de gripe A H1N1 en 2009 (un diagnóstico que no comparto: no olvidemos que la gripe pudo infectar a 200 millones de personas y dejó unos 19.000 muertos) y por defecto de reacción en la epidemia de ébola de 2014. Pero ya llevaba detrás un legado polémico por su actuación como directora de Salud de Hong Kong, cuando se le criticaron su “ayer cené pollo” a propósito de la gripe aviar H5N1 de 1997 y su pasividad en el brote de SARS de 2003. Chan está pisando un terreno pantanoso que puede acabar con su defenestración si no sale airosa de la emergencia del zika.

Pero aunque Chan se haya convertido en el blanco propicio de este tiro al pato, no olvidemos que uno de los factores destacados por los expertos a la hora de mitigar el impacto de una epidemia como el zika es la respuesta de los sistemas de salud de los países. Y como ya he señalado en ocasiones anteriores, en España tenemos ahora como ministro de Sanidad (en funciones) a un filólogo a quien el cargo le cayó como prebenda por los servicios prestados al partido; una situación que pasa inadvertida cuando se trata de ejercer como burócrata gestor de la maquinaria de salud pública, pero que se convierte en un peligro igualmente público cuando toca gestionar una crisis sanitaria. Los brasileños al menos tienen en ese cargo a un médico.

Es evidente que por debajo del burócrata hay una gruesa capa de expertos y técnicos de alto nivel. Pero en el mundo real difícilmente se admitiría poner al frente de lo que sea a alguien sin el conocimiento profesional necesario para saber de lo que habla, y que ha aprendido lo que debe decir al público cinco minutos antes de decirlo. O dicho de otro modo: el ciudadano que paga tiene derecho a que su ministro de Sanidad sea el ventrílocuo, y no el muñeco.

Pero ¿crisis sanitaria, aquí, en España? Lo cierto es que aún es tanto lo que se desconoce sobre el zika que nadie apuesta un céntimo sobre cómo puede evolucionar esto. Pero casi todos los virólogos y epidemiólogos con los que he hablado últimamente reconocen off the record que el riesgo aquí, sin ser comparable al de las latitudes cálidas, es mayor de lo que se está transmitiendo, ya que muy probablemente el mosquito tigre es o acabará siendo un vector competente para el zika. Ya se han dado recientemente brotes de transmisión autóctona de dengue en el sur de Europa, virus muy próximo al zika y que comparte los mismos vectores; con lo que hoy se conoce del zika, no hay (todavía) ninguna razón científica para sostener que el riesgo de transmisión autóctona estacional del virus en España es mínimo, como se está diciendo.

Aún nos quedan unos meses de reacción hasta que comience la eclosión masiva de mosquitos en nuestras latitudes. Y no podemos esperar a llevarnos las manos a la cabeza cuando nazca en España el primer bebé con microcefalia, una enfermedad horriblemente atroz que deja empequeñecido el antiguo fantasma de la polio. Aunque hayan oído que todavía no se ha confirmado científicamente el vínculo con el zika, no piensen por ello que se trata de un síntoma surgido de la nada y nunca antes visto: las complicaciones en el desarrollo neurológico, incluyendo la microcefalia, son frecuentes en los casos de transmisión infecciosa de la madre al feto. La microcefalia se ha descrito sobradamente para viejos conocidos como el citomegalovirus o el VIH, e incluso para virus emparentados con el zika como el del Nilo Occidental. A efectos de salud pública hay que dar este síntoma por descontado, y que la ciencia concluya lo que tenga que concluir, pero a su propio ritmo.

En resumen, es preciso exigir a las autoridades involucradas una toma de postura drástica encaminada hacia la contención del zika. Ninguna medida es excesiva, y el papel de la OMS no es servir de garante del comercio internacional o de la industria turística, sino de la salud de los ciudadanos de los países a los que representa; una caída de los ingresos por turismo puede embocar a algunos países hacia un difícil trance económico, pero una epidemia de microcefalia sería infinitamente peor, algo que quedaría marcado como la funesta huella de un trágico error. Y si el Comité Olímpico Internacional pierde su multimillonario negocio, que digan dónde hay que firmar.

El culebrón de la estrella misteriosa, capítulo…

Ignoro si hay más estrellas con cuenta en Twitter, pero Tabby la tiene. Tabby es esa estrella a la que en ocasiones anteriores me he referido por su nombre oficial, KIC 8462852. Pero dado que al parecer vamos a seguir hablando de KIC 8462852 durante un tiempecito, y aunque el Ctrl-C/Ctrl-V es tremendamente útil para casos como el de KIC 8462852, me van a permitir que me olvide de KIC 8462852 y la llame sencillamente Tabby, su sobrenombre oficial referido a su descubridora, la astrónoma Tabetha (Tabby) Boyajian. Y oficial, porque tiene otro alias que los científicos manejaron internamente durante las discusiones iniciales sobre el extraño comportamiento de la estrella: WTF (What The Fuck).

La estrella Tabby, señalada en el centro. Imagen de Aladin.

La estrella Tabby, señalada en el centro. Imagen de Aladin.

Resumo los capítulos anteriores de este folletín, que los interesados podrán consultar en detalle aquí, aquí y aquí: en 2013, los datos del telescopio espacial Kepler revelan la existencia de una estrella a unos 1.500 años luz, bautizada como, ejem, KIC 8462852 (esta sí es la última vez) y que no se parece a nada de lo visto hasta ahora: periódicamente la estrella reduce su brillo en más de un 20%, como si algo muy grande pasara por delante de ella.

Los científicos sospecharon que podría tratarse de un enjambre enorme de fragmentos de una familia de cometas, pero algunos más aventurados sugieren que podríamos encontrarnos ante el primer signo de tecnología alienígena a gran escala, en forma de una colosal infraestructura construida alrededor del astro para cosechar su energía. Estas estructuras, que según su configuración se llamarían anillos de Dyson, esferas de Dyson o enjambres de Dyson, no son una idea sobrevenida ad-hoc, sino que fueron inventadas por la ciencia ficción antes de que en 1960 entraran formalmente en la discusión científica de manos del físico Freeman Dyson.

La idea de los cometas ganó peso gracias a otros estudios que favorecían esta explicación. Por otra parte, las observaciones del Instituto SETI (Búsqueda de Inteligencia Extraterrestre) y de la nueva organización SETI International no han logrado detectar ni señales de radio ni pulsos láser procedentes de Tabby que pudieran delatar la actividad de una civilización tecnológica; y el perfil de infrarrojos de la estrella no muestra el exceso de calor desprendido que se esperaría si una estructura estuviera cosechando su luz. Es decir, que las pruebas apuntan a una explicación natural sin hombrecitos verdes.

Sin embargo, en el capítulo anterior expliqué que alguien dice haber refutado la teoría de los cometas. El astrónomo Bradley Schaefer ha rescatado un siglo de observación de Tabby a través de las viejas placas fotográficas de vidrio almacenadas en el archivo del Observatorio de Harvard, llegando a la conclusión de que la estrella perdió un 20% de su brillo entre 1890 y 1989. Schaefer razona que esta atenuación a largo plazo debería tener la misma explicación que la transitoria y periódica observada ahora, y calcula que se necesitarían 648.000 cometas de 200 kilómetros para provocar el efecto; algo del todo imposible, concluye.

Pero ahora viene otro estudio a negar las conclusiones de Schaefer. Michael Hippke y Daniel Angerhausen han analizado las placas del archivo de Harvard para otras 28 estrellas de tipo F, el que se presume para Tabby, y llegan a la conclusión de que en 18 de ellas se observa el mismo tipo de presunta atenuación a lo largo de un siglo. Schaefer había analizado otras dos estrellas en las cuales no había detectado este efecto; pero al ampliar la muestra, según Hippke y Angerhausen, se deduce que probablemente no existe tal atenuación, sino que es un error experimental debido a una mala calibración al digitalizar las placas. Esto no afectaría a la observación original de Kepler, dicen los dos científicos, pero sí al supuesto efecto a largo plazo descrito por Schaefer.

Naturalmente, esto no iba a quedar así. Schaefer ha respondido en el blog Centauri Dreams, y no precisamente con tibieza: alega que el estudio de Hippke cae en “horribles fallos de principiante”, que algunos de sus datos son “basura”, que sus conclusiones son “falsas” y, en resumen, que el trabajo “no es buena ciencia”. La basura a la que Schaefer se refiere es una cierta cantidad de placas que Hippke incluyó en su examen y que están reconocidas por el propio archivo como defectuosas o deterioradas, y que por tanto no contienen datos válidos. El investigador aporta otros argumentos bastante convincentes: por ejemplo, dice que examinó cinco estrellas de control que aparecen a pocos milímetros de Tabby en todas las placas, sin que ninguna de ellas muestre ningún efecto de atenuación. Y lo cierto es que Schaefer goza de gran reputación en el estudio de placas astronómicas antiguas, mientras que Hippke admite ser un “novato”, según escribe Schaefer.

El comentario de Schaefer ha provocado una encendida discusión entre los especialistas. Hay quienes se decantan por la probada profesionalidad de Schaefer, pero otros, como mínimo, le reprochan una reacción que califican de arrogante. De momento, parece claro que el ataque de Hippke al trabajo de DASCH, el proyecto que se encarga de digitalizar el archivo de placas de Harvard y al que el investigador atribuye los errores, no ha sentado demasiado bien a nadie. Según Schaefer, el estudio de Hippke ha vertido una mancha sobre la reputación del archivo digitalizado de Harvard que costará borrar.

A la espera de los próximos episodios del culebrón, el caso tiene un especial interés no solo por el misterio que aún rodea a Tabby, sino porque estamos asistiendo a algo bastante insólito. Ni el estudio de Schaefer ni el de Hippke se han publicado aún; ambos están disponibles en la web de prepublicaciones arXiv, donde los físicos suelen poner sus trabajos a disposición de la comunidad antes incluso de que pasen el filtro de la revisión de cara a su publicación formal en una revista. Los científicos suelen discutir los estudios en esta fase, pero no es habitual que este debate llegue al público como está ocurriendo ahora, ni que se estén refutando trabajos publicitados en los medios por otros trabajos que aún tampoco se han publicado. Ciencia fresca e inmediata gracias a internet… pero si la revisión ya no actúa como filtro, la ciencia corre el mismo peligro que todo lo demás en internet: llegar a un punto en el que sea difícil diferenciar el hecho del rumor.

Terremoto: España (ahora ya sí) tiene un sistema de alerta de tsunamis (y hay riesgo)

Para comenzar, aquí va un recordatorio que continuaré repitiendo todas las veces que haga falta: olvídense del señor Richter. Lo ocurrido la pasada madrugada en el mar de Alborán ha sido un terremoto DE MAGNITUD 6,3. Hasta ahí. No sigan. Punto. Final.

Efectos del terremoto en Melilla. Imagen de Francisco García Guerrero / EFE.

Efectos del terremoto en Melilla. Imagen de Francisco García Guerrero / EFE.

En un artículo anterior, con ocasión del seísmo de Ossa de Montiel (Albacete) en febrero de 2015, ya expliqué algo sobre las diferentes maneras de medir los seísmos, pero quédense con esta idea esencial: la escala de Richter (también llamada Magnitud Local o ML) es, en palabras del Servicio Geológico de EEUU (USGS), “un método anticuado que ya no se utiliza”. Y aunque se utilizara, no tiene grados; la manera correcta sería “magnitud X en la escala de Richter” (incluso hablar de escala es inapropiado, dado que no existe un máximo). El terremoto de Alhucemas (esta es la ubicación de referencia que toma el USGS en su información sobre el temblor) ha sido de magnitud de momento (MW) 6,3; o simplemente, de magnitud 6,3. Fácil, ¿no?

Ahora bien, la pregunta es: ¿qué diferencia hay? Y la respuesta es: depende. Hasta un cierto nivel, la escala ML de Richter y la de magnitud de momento MW son equivalentes. La escala de Richter dejó de utilizarse porque para temblores mayores de 6,5 subestima la energía liberada por el seísmo, en mayor medida cuanto más fuerte. Es decir, que en cierto modo se satura por encima de 6,5. A una magnitud de 6,3 estamos cerca del límite; pero aunque en este caso el error no fuera considerable, el hecho es que la información oficial del Instituto Geográfico Nacional sobre este último terremoto se ha medido, y por tanto facilitado a los medios, en la escala de magnitud de momento MW, y es así como debe publicarse y decirse.

Otra cosa es la intensidad. Este es un parámetro que corresponde a cómo lo sentimos y qué tipo de daños provoca; es decir, que no tiene un valor absoluto para cada seísmo, sino que varía en función del lugar. Como es lógico, en general es mayor cuanto más cerca del epicentro, aunque también influyen otros factores. En nuestro caso, la intensidad se mide por la Escala Macrosísmica Europea 1998, o EMS-98, que comienza en I (no sentido) y asciende hasta XII (completamente devastador). El de anoche alcanzó una intensidad máxima de V (fuerte) en Melilla, IV (ampliamente observado) sobre todo en localidades costeras de Málaga y Granada, y descendió hacia el norte hasta una intensidad de II (apenas sentido) en lugares tan alejados como Madrid.

Respecto a la causa del terremoto, es la misma de ocasiones anteriores, responsable también de los grandes seísmos de las últimas décadas en Turquía o Italia: vivimos sobre un pequeño anillo de fuego, la confluencia entre las placas tectónicas Euroasiática y Africana, que viene del Atlántico, pasa por el estrecho de Gibraltar y recorre el Mediterráneo. Los mayores seísmos registrados con instrumentos en esta confluencia fueron el de la isla griega de Citera en 1903, de magnitud 8,2, y el de Rodas en 1926, con 7,8. Por suerte, en la Península Ibérica nos hemos librado hasta ahora de los temblores más violentos, exceptuando el terremoto de Lisboa de 1755, al que se le calcula una magnitud de 8,0.

Esquema de las placas tectónicas terrestres. Imagen de Wikipedia.

Esquema de las placas tectónicas terrestres. Imagen de Wikipedia.

En el caso de Lisboa, a las sacudidas de la tierra se unió un segundo azote catastrófico, un tsunami que arrasó la ciudad y las localidades costeras. Y no ha sido el único caso en el que un terremoto en nuestra zona de riesgo ha levantado olas devastadoras. De hecho, el seísmo más letal documentado en la historia de Europa, el de 1908 en la ciudad siciliana de Messina, unió a su magnitud de 7,2 un tsunami con olas de 12 metros que multiplicó la destrucción. El 91% de las estructuras de la ciudad se desplomaron, cobrándose un coste en vidas de entre 60.000 y 120.000.

Y dado que no estamos a salvo de un riesgo semejante en el futuro, es un buen momento para recuperar un comunicado que el Ilustre Colegio Oficial de Geólogos (ICOG) publicaba el pasado 17 de septiembre: “en España no tenemos un sistema de alerta de tsunamis como existe en el Pacífico”, decía el ICOG. Los geólogos recuerdan que ya hemos sufrido anteriormente esta amenaza: “el terremoto de Lisboa de 1755 originó un maremoto que causó más de mil muertos en las costas de Huelva y Cádiz”. Y terminan: “tras el terremoto de Lorca, en mayo de 2011, el Colegio de Geólogos implementó un decálogo para la prevención del riesgo sísmico en España, donde, entre otras medidas, se proponía actualizar la norma sismorresistente en España. Aún no se ha hecho nada”.

Esperemos que no llegue el día en que la venda tenga que ponerse sobre una herida ya abierta.

Actualización (30/01/2016): España ya sí cuenta con un sistema de alerta de tsunamis, plenamente operativo desde el 1 de enero de 2015. Más información aquí.

¿Qué ha pasado en el ensayo clínico de Francia?

Ha resonado poco aquí el desastre del ensayo clínico de Francia que ha resultado en la muerte de una persona y en daños cerebrales graves, probablemente irreversibles, a otras. Recordemos además que se trataba de una Fase 1, dirigida solo a evaluar la seguridad del fármaco y no su eficacia, algo que comienza a estudiarse en la Fase 2. Por ello, en la Fase 1 se administra el medicamento a personas completamente sanas, no a enfermos.

Lo ocurrido en Francia debería preocuparnos más. Aunque no es el primer ensayo clínico que resulta en una catástrofe inesperada, sabemos que cada nuevo accidente aéreo obliga a revisar las normativas de la aviación y a perfeccionar la regulación o a cubrir supuestos que hasta entonces no se habían tenido en cuenta. Y así, con cada fatalidad en el aire, al menos a los familiares de los fallecidos les puede quedar el consuelo (si es que existe alguno) de que la muerte de los suyos no fue en vano, sino que sirvió para que otros viajaran más seguros (si es que esto aún hoy significa algo).

Sede en Rennes de Biotrial, el contratista de ensayos clínicos encargado del estudio. Imagen de Thomas Bregardis / EFE.

Sede en Rennes de Biotrial, el contratista de ensayos clínicos encargado del estudio. Imagen de Thomas Bregardis / EFE.

Este es el resumen de la historia. La compañía portuguesa Bial (web española aquí) desarrolló un nuevo fármaco de nombre en clave BIA 10-2474, un posible calmante destinado a tratar el dolor crónico y los desórdenes de movimiento excesivo en enfermedades como el párkinson. La empresa dijo que se trataba de un inhibidor reversible y de larga duración de la hidrolasa de amidas de ácidos grasos (en inglés, FAAH), una enzima presente en las membranas de las células que rompe un tipo de lípidos bioactivos (es decir, que no son simples grasas estructurales, sino que ejecutan funciones biológicas). La FAAH destruye sobre todo la anandamida, que es un endocannabinoide; o sea, una molécula creada por nuestro cuerpo que es parecida al ingrediente activo del cannabis. Bial aclaró que el BIA 10-2474 no es un derivado del Cannabis sativa.

Los inhibidores de la FAAH causan un aumento de los niveles de anandamida; por decirlo llanamente, tienen efectos similares al cannabis, favoreciendo un colocón natural por los cannabinoides naturales del propio cuerpo, y de ahí su acción calmante. Es por ello que desde hace unos años las compañías farmacéuticas estudian estos inhibidores como potenciales analgésicos de línea dura, digamos; no de los que uno deglute frente al espejo del baño cuando le duele la cabeza, sino de los que se administran en los hospitales a pacientes con enfermedades muy graves como el cáncer. Ya se han desarrollado anteriormente otros medicamentos que actúan en esta vía, pero hasta ahora no hay ninguno en el mercado; no porque hayan causado problemas, sino más bien por todo lo contrario: eran seguros, pero los ensayos se abandonaron en la Fase 2 porque eran ineficaces. No hacían nada.

Después de los obligatorios ensayos preclínicos en animales (incluyendo monos; yo también lo siento, pero hoy aún no hay otro modo), Bial tuvo luz verde para comenzar su estudio en humanos, que encargó a la francesa Biotrial, un contratista de ensayos clínicos con sede en Rennes. Como en todos los casos, la Fase 1 en humanos comenzó administrando bajas dosis simples del fármaco a los voluntarios (en este caso a 84), sin que se produjera ninguna reacción adversa. El problema ha llegado al aumentar esta dosificación a lo que sería el equivalente de un ensayo general en el teatro, un régimen clínico de administración del medicamento. Y aquí es cuando se ha producido la catástrofe. De los seis pacientes que han recibido el tratamiento, uno ha muerto, cuatro han resultado gravemente afectados y uno fue dado de alta.

Nadie sabe todavía qué demonios es lo que ha ido mal. Ya se conoce la estructura química concreta del fármaco (1-óxido de 3-(1-(ciclohexil(metil)carbamoil)-1H-imidazol-4-il)piridina); la Agencia de Seguridad de los Medicamentos de Francia se ha visto obligada a publicar el protocolo del ensayo después de que este documento se filtrara al diario Le Figaro. Tal vez Francia trata de responder a las críticas de falta de transparencia en ocasiones anteriores, como advertía Nature esta semana.

La publicación de la composición del compuesto permitirá a otros expertos estudiar si, por ejemplo, el efecto tóxico podría deberse a una interacción no deseada e impredecible del compuesto con otra proteína, lo que se conoce como off-target; los pacientes afectados muestran necrosis y hemorragia cerebral, por lo que lo ocurrido no es simplemente una sobredosis de cannabinoides. Sería fácil hacer demagogia contra Bial o Biotrial, ya que existe un cierto sector del público ávido por culpar a las farmacéuticas hasta de la muerte de Yoda. Pero ambas compañías tienen derecho a la presunción de inocencia habitual. Lo cierto es que esto puede haber ocurrido sin que se haya cometido ningún error o negligencia. Si la pregunta es si es posible que un compuesto produzca en humanos una interacción tóxica y fatal que solo se revele a altas dosis y que esté ausente incluso en monos, la respuesta es sí.

El caso tiene dos repercusiones interesantes. La primera se refiere a la normativa de ensayos clínicos, que en la UE se rige a nivel comunitario. Hasta ahora ha estado vigente la directiva de 2001; en 2014 se aprobó una nueva regulación que entrará en vigor este año. Es importante la diferencia entre ambos conceptos legales: la directiva es un marco general que en cada país se traspone con un cierto margen de libertad, mientras que la regulación equivale a una ley, pero aplicable en todos los países de la UE. El cambio vino motivado por las críticas que achacaban a la directiva el haber creado un panorama de reinos de taifas burocráticos que aumentaba los costes y dilataba los tiempos, lo que resultó en un descenso del 25% de los ensayos clínicos en la UE. Según la Comisión Europea, la nueva regulación armonizará procedimientos, eliminará duplicaciones y aligerará la burocracia.

Ahora bien, a raíz del caso francés, algunos expertos han subrayado la necesidad de que las regulaciones incluyan la obligación de distanciar en el tiempo la administración de fármacos en Fase 1 a distintos pacientes; es decir, que el segundo sujeto no lo reciba hasta que se haya comprobado que el primero no sufre ningún efecto adverso. Y esto no está contemplado hoy. No olvidemos además que los participantes en un ensayo clínico en Fase 1 son voluntarios sanos que cobran por prestarse como sujetos de estudio (en este caso concreto, 1.900 euros); ya podemos imaginar que a alguien con una situación económica desahogada normalmente no se le pasará por la cabeza buscar esta manera de sacarse un sustento. Un ensayo clínico es dinero fácil para alguien en situación difícil; pero no puede permitirse que esto sea a costa de poner en riesgo sus vidas.

Una segunda implicación es aún más inesperada. Resulta que anteriormente se han identificado drogas de diseño que contenían compuestos que actúan sobre la vía de FAAH (aquí y aquí). Uno de ellos, llamado LY-2183240, no solo inutiliza irreversiblemente la FAAH, sino que también tiene efecto cruzado (off-target) sobre otras enzimas de la misma familia, las serín hidrolasas, un amplio grupo de proteínas con funciones muy diversas en el organismo.

Estos cannabinoides sintéticos producen efectos similares al cannabis, salvo que no son detectables en los controles de drogas, y este parece ser el motivo por el que algunos consumidores los toman. Pero tratándose de drogas clandestinas, cada consumidor está realizando en sí mismo, sin saberlo, un ensayo clínico de un compuesto posiblemente adulterado que además puede producir peligrosas interacciones off-target. Resumiendo, hay una alternativa más segura que los inhibidores de FAAH, tanto para uso clínico como recreativo: el cannabis.

Este es el bicho que vive en nuestras caras… desde que somos humanos

Les presento a Demodex folliculorum, un ser que vive en los poros y los folículos pilosos de la cara de ustedes, la mía y la del 100% de los humanos adultos. Lo siento, modelos que aparecéis en los anuncios de la tele proclamando jovialmente lo limpias que os sentís tras (presuntamente) eliminar vuestras toxinas bebiendo nosequé. En vuestras cejas, pestañas, frente, pómulos, orejas, nariz, y prefiero no continuar hacia más abajo, viven estos diminutos y adorables animalitos de ocho patas con garras, primitos de las arañas. Y no hay bebida que os libre de ellos.

Un 'Demodex folliculorum'. Imagen de California Academy of Sciences.

Un ‘Demodex folliculorum’. Imagen de California Academy of Sciences.

Somos auténticos ecosistemas andantes. En nuestro cuerpo habitan diez veces más bacterias que células nuestras. Tal vez solemos pensar que, cuando uno de nosotros muere, nuestros restos mortales se convierten en pasto de infinidad de criaturas. Pero lo cierto es que ya somos un universo en miniatura mientras estamos vivos. Lo que sucede más bien es que, cuando morimos, esa pacífica sociedad de miles de millones de seres que hasta entonces vivían tranquilamente a sus cosas dentro de nosotros se ve de repente invadida por inmensas hordas de bárbaros agresivos que exterminarán su pequeño mundo tal como lo conocían. En lo que se refiere a nuestros microbios, el llamado microbioma humano es un campo de la biología que está en pleno auge, y que cada vez está demostrando más relevancia en determinar lo que realmente somos, no solo a nivel fisiológico, sino incluso psicológico.

Últimamente he estado trabajando bastante sobre el tema de la simbiosis. Muchos biólogos piensan que ya no puede considerarse la evolución tomando cada especie aislada, por ejemplo los humanos, sino que a efectos evolutivos debe pensarse en el todo formado por un organismo y todos los que le acompañan en su viaje, lo que se conoce como el holosimbionte. Cada uno de nosotros es un holosimbionte compuesto por el yo biológico más todo el resto de organismos que llevamos encima y dentro. Qué bonita manera de aplicar a la biología aquella famosa idea de Ortega: “yo soy yo y mi circunstancia”.

Regresando a nuestro amigo el Demodex folliculorum, es uno de los dos ácaros que viven en los orificios de nuestra piel, junto con su primo D. brevis, que prefiere las glándulas sebáceas. La biología no los considera simbiontes, ya que por el momento no se conoce que nos aporten ningún beneficio. Tampoco lo contrario, salvo en casos de infestación grave, y por ello los clasificamos como comensales.

El gusano espacial que trataba de tragarse el 'Halcón Milenario' en 'El imperio contraataca'. Imagen de 20th Century Fox.

El gusano espacial que trataba de tragarse el ‘Halcón Milenario’ en ‘El imperio contraataca’. Imagen de 20th Century Fox.

Pero si traigo aquí a este animalito precisamente hoy, día del estreno de El despertar de la Fuerza, no es por el parecido razonable entre el gusanito que vive en las cuevas de nuestra piel y el gusanazo que vivía en la caverna de un asteroide en El imperio contraataca. El motivo es que el Demodex es el protagonista de un estudio recién publicado en la revista PNAS y que nos descubre una fascinante conclusión sobre hasta qué punto nuestro destino y el de nuestros inquilinos están vinculados.

Científicos de la Academia de Ciencias de California y otras instituciones (incluyendo a una investigadora de la Universidad de Vigo, Iria Fernández-Silva) tomaron muestras de la cara de 70 personas en distintos lugares del mundo, bien arrastrando por la frente la parte curvada de una horquilla, o bien raspando la piel de la mejilla o del exterior de la nariz con una espátula. Lo primero que comprobaron al analizar las muestras fue que absolutamente todos los sujetos llevaban el Demodex en su piel, confirmando lo que otro estudio del mismo equipo ya mostró el año pasado: todos los humanos mayores de 18 años compartimos este inquilino.

Curiosamente, de las personas que tenían 18 años en el momento del estudio, el Demodex estaba presente solo en el 70% de los casos, indicando que lo adquirimos a lo largo del tiempo. ¿Y de quién? Pues según los análisis de ADN mitocondrial practicados por los investigadores, no de cualquiera a quien saludamos con un par de besos, sino de nuestra gente más próxima: del mismo modo que nosotros y nuestros familiares más cercanos compartimos ADN, también nuestros Demodex y los de nuestros familiares más cercanos comparten su ADN.

Un 'Demodex folliculorum'. Imagen de California Academy of Sciences.

Un ‘Demodex folliculorum’. Imagen de California Academy of Sciences.

Según la directora del estudio, Michelle Trautwein, “el continente de donde procede la ascendencia de una persona tiende a predecir los tipos de ácaros de sus caras”. Pásmense: los investigadores descubrieron que algunas personas afroamericanas cuyas familias llevan varias generaciones viviendo en EEUU aún llevan Demodex africanos. “Es alucinante que solo estemos empezando a descubrir cómo nosotros y los ácaros de nuestro cuerpo compartimos profundamente la misma historia”, dice Trautwein.

Pero aún más, el estudio de ADN ha permitido a Trautwein y sus colaboradores rastrear la evolución de los Demodex a lo largo del tiempo y su dispersión por el mundo en sus hospedadores humanos. Y resulta que estos animalitos reflejan en su evolución genética la famosa hipótesis llamada Out of Africa, según la cual los humanos modernos surgieron en África y desde allí emigraron hasta colonizar el mundo originando poblaciones distintas. Sin embargo, cuando nosotros aparecimos, los Demodex ya estaban allí: el ADN sugiere que su especie es anterior a la nuestra, pero es posible incluso que su linaje se remonte a más de 3 millones de años atrás, lo que indicaría que nos han acompañado desde el nacimiento del género Homo.

Así que el minúsculo Demodex, que normalmente no nos molesta demasiado, se merece un pequeño homenaje. Hoy rompo mi línea habitual: que entre Sinatra. I’ve got you under my skin (te llevo bajo mi piel).

EEUU anuncia que se marchará de la Estación Espacial Internacional

Se veía venir. El dinero no es elástico; y puestos a decidir en qué gastarlo, hay que elegir: si se quiere viajar a destinos exóticos, no hay presupuesto para mantener ese carísimo chalecito en la órbita terrestre.

La ISS fotografiada desde el transbordador espacial 'Atlantis' el 19 de julio de 2011. Imagen de NASA.

La ISS fotografiada desde el transbordador espacial ‘Atlantis’ el 19 de julio de 2011. Imagen de NASA.

Nunca está de más repetir por qué nadie ha vuelto a la Luna desde el programa Apolo (que, recordemos, llevó gente allí no una, sino seis veces, que habrían sido siete de no haber sido por el “Houston, tenemos un problema” del Apolo 13): la época de las vacas espaciales gordas frenó en seco cuando el dinero se recortó brutalmente, desde más de un 4% del presupuesto federal de EEUU hasta menos del 1%. ¿Usted podría seguir viviendo exactamente igual si su salario se redujera a menos de la cuarta parte? Pues la NASA tampoco.

A esto se unió, como también he comentado aquí alguna vez, un cambio de enfoque. La Luna ya estaba conquistada y Marte quedaba fuera de la provincia. Quienes dirigen la exploración espacial decidieron, y el argumento es innegable, que lanzar naves con personitas dentro era demasiado caro, arriesgado y engorroso, y que los robots podían producir toneladas de ciencia valiosa sin que molestaran llamando a casa con problemas.

Así que desde 1972, la única presencia humana fuera de la Tierra ha estado en la órbita baja. Desde 1998, en la Estación Espacial Internacional (ISS).

Pero los tiempos cambian, los viejos enfoques siempre resucitan, y estaba claro que algún día regresaría la genuina pasión humana por la exploración. El viaje al espacio no solo trata de ciencia. Y la NASA tiene ahora ideas ambiciosas. La de poner humanos en Marte en la década de los 30 ha servido para crear bonitas infografías, pero es poco más que un sueño loco: ni de lejos cuenta hoy con el presupuesto necesario para hacerlo realidad.

En cambio, el proyecto de regresar a la Luna en la próxima década es económicamente viable, siempre que se recorten otros gastos. Y parecía casi obvio de dónde iban a proceder esos fondos. La semana pasada y durante una reunión del comité asesor de la NASA en el Centro Espacial Johnson, el jefe de vuelos tripulados de la agencia, William Gerstenmaier, dijo: “Nos vamos a marchar de la ISS tan pronto como podamos”. “No importa si este hueco lo rellenará el sector privado o no; la visión de la NASA es que estamos tratando de marcharnos”, añadió.

Actualmente está previsto que la ISS continúe operando hasta 2024. Si EEUU se retira, el futuro de la estación es incierto, dado que es el socio que ha aportado la mayor de las partidas financieras individuales, casi la mitad del total.

Hagamos un poco de repaso. Cinco socios integran el proyecto de la ISS: EEUU, la Agencia Europea del Espacio (ESA), Rusia, Japón y Canadá. Las cuentas de la estación no son precisamente un modelo de transparencia. Según la ESA, el coste total de la ISS es de 100.000 millones de euros; y por si a alguien le interesa, el cálculo revela que a cada europeo nos cuesta un euro al año.

Pero hay quienes consideran que la cifra real es bastante mayor. Según una estimación del periodista de ciencia canadiense Claude Lafleur, el coste hasta 2015 sería de 150.000 millones de dólares, unos 139.000 millones de euros. De este total, EEUU habría aportado 72.400 millones de dólares (67.000 millones de euros). En 2015, la sexta parte del presupuesto de la NASA (3.000 millones de dólares de un total de 18.000) está dedicada a la ISS.

Por situar las cifras en contexto, este coste total de la ISS es superior al Producto Interior Bruto (PIB) de 117 de los 187 países pertenecientes al Fondo Monetario Internacional. Un ejemplo: sumen los PIB de Letonia, Camboya y El Salvador, y obtendrán el coste de la ISS.

No pretendo hacer demagogia con estos datos; como viejo africanista, sé perfectamente que los problemas de los países pobres no dependen del dinero que se gaste en el espacio. Pero estos fondos podrían haberse destinado a que el ser humano no perdiera la presencia en el llamado espacio profundo (aunque podríamos dejarlo simplemente en “espacio”) que tuvo en otros tiempos. ¿Saben cuánto costó el programa Apolo? En dólares de hoy, 100.000 millones.

Se me nota que no soy, ni he sido nunca, un gran entusiasta del ganso orbital en el que cada noche de hotel cuesta unos 7,5 millones de dólares. En la ISS se ha hecho mucha ciencia, pero en general no ha sido gran ciencia (lo expliqué con más detalle aquí). Y como presencia humana en el espacio, no nos engañemos: la estación está situada en la órbita baja, a unos ridículos 400 kilómetros de altura; un Madrid-Málaga en línea recta, pero hacia arriba. Las imágenes de sus ocupantes flotando producen la impresión de que la ISS está lejísimos, pero no olviden que en realidad la gravedad en la estación es prácticamente la misma que aquí. Los astronautas flotan porque están cayendo. Lo que hay allí no es microgravedad, sino una simulación de microgravedad provocada por la caída libre orbital. A efectos científicos es lo mismo (como demostró Einstein), pero no es exploración espacial.

Si la insinuación de Gerstenmaier se hace realidad, a muchos no les va a gustar nada. Pero aquí hay uno más que piensa que ya va siendo hora de hacer el petate, dejar el hotelito de lujo más caro del Sistema Solar y viajar un poco por ahí.

Ada Lovelace no fue la primera programadora, pero vio el futuro de las computadoras

No crean todo lo que lean por ahí. Internet es un medio fantástico de difusión de información, pero también puede serlo de desinformación. Y cuando una versión de una historia cuaja y se copia y recopia en miles de webs, es muy difícil llegar a derribarla, por muy equivocada que esté.

Detalle del retrato de Ada Lovelace pintado por Margaret Carpenter en 1836. Imagen de Wikipedia.

Detalle del retrato de Ada Lovelace pintado por Margaret Carpenter en 1836. Imagen de Wikipedia.

Hace unos días el historiador de la computación Doron Swade me escribía en un correo: “Si puedes corregir las innumerables equivocaciones que abundan sobre la reputación de Lovelace, habrás hecho más que ningún otro periodista con el que haya tenido el placer de relacionarme”. ¿A qué se refería Swade? A esto: “Si como periodista levantas alguna duda sobre la proclama de la primera programadora, no digamos si la rebates, habrás hecho más que nadie que conozco con proyección pública para realinear las pruebas históricas con la percepción pública, y te deseo suerte en ello”.

Ada Lovelace, de cuyo nacimiento hoy se cumplen 200 años, fue la única hija legítima de Lord Byron, un tipo tan agraciado por su talento poético como desgraciado en su vida amorosa. Es curiosa la riqueza del castellano cuando una palabra puede significar algo y su contrario. En el caso de “desgraciado”, el diccionario recoge dos significados contrapuestos: el que padece desgracia, o el que la provoca a otros. Byron repartió mucha desgracia amorosa y, con ella, dejó por ahí un número de hijos que ni siquiera se conoce con exactitud. Solo una vez se casó, con Annabella Milbanke, y de este matrimonio nació una niña, Ada. Byron y Annabella rompieron cuando la niña solo tenía un mes.

Ada se crió con sus abuelos y con su, al parecer, poco afectuosa madre, que se preocupó de que aprendiera matemáticas y lógica para evitar que sufriera los delirios de su padre. Desde pequeña, la futura condesa de Lovelace destacó por su inteligencia y por su interés en los números, que la llevarían a relacionarse con Charles Babbage, el creador de las primeras calculadoras mecánicas; un trabajo por el que Babbage suele recibir el título de padre de la computación.

Ada se encargó de traducir al inglés un artículo que resumía una conferencia pronunciada por Babbage en Italia. Al final del texto, añadió unas extensas notas que incluían un algoritmo que permitiría a la máquina calcular los números de Bernoulli, una serie de fracciones con diversas aplicaciones matemáticas. Y es este algoritmo el que ha servido para promocionar mundialmente a Ada Lovelace como la autora del primer programa informático de la historia, un título que suele acompañar a su nombre en innumerables reseñas biográficas.

No se trata de que aquel algoritmo no pueda definirse exactamente como un programa informático. Es evidente que aún quedaba un siglo por delante hasta la existencia de verdaderas computadoras que trabajaran con programas tal como hoy los entendemos. Pero aquel algoritmo era una descripción paso a paso de los cálculos que realizaría la máquina, por lo cual los expertos reconocen en aquel trabajo el primer precursor de la programación.

El problema es que, según parece, no fue el trabajo de Lovelace, sino de Babbage. Durante años, los expertos han discutido hasta qué punto aquellas notas escritas por Ada fueron realmente producto de su mente o fueron más o menos dirigidas por Babbage. Si abren la página de la Wikipedia sobre Ada Lovelace en inglés (la entrada en castellano no recoge la controversia), comprobarán que existen versiones contradictorias. Pero en general, los historiadores de la computación favorecían la versión de que Babbage era quien mejor conocía la máquina que él mismo había ideado, y que los primeros programas fueron obra suya. En palabras de Swade: “La idea de que Babbage inventó una computadora y no sabía que podía programarse es de risa”.

A esto se añaden los nuevos datos aportados ahora por Swade en el simposio celebrado esta semana en Oxford con motivo del bicentenario de Ada Lovelace. Según me contaba por email antes del simposio, tiene las pruebas documentales de 24 programas creados por Babbage seis o siete años antes de las famosas notas de Lovelace, y ha rastreado en ellos la procedencia original de cada uno de los rasgos que aparecen en el programa de los números de Bernoulli del escrito de Ada; lo que parece zanjar definitivamente el debate. He explicado los detalles en este reportaje.

Queda una cuestión por resolver, y es que según parece los programas no están escritos de puño y letra por Babbage. Sin embargo, Swade apunta que el matemático solía emplear escribientes y dibujantes, y que de hecho gran parte del material por el que es reconocido tampoco corresponde a su escritura. La posibilidad de que estos primeros programas fueran escritos por Lovelace queda descartada, según Swade, por otras pruebas indirectas: en primer lugar, de ser así habría correspondencia al respecto entre ambos, que no existe. Y tal vez más importante, de las cartas que Babbage y Lovelace intercambiaron más tarde, en la época de las notas, se deduce que por entonces Ada solo estaba comenzando a comprender los fundamentos de la máquina, lo que no cuadraría con el hecho de que hubiera escrito programas para ella varios años antes.

Pese a todo lo anterior, Swade quiere dejar claro que no pretende de ningún modo desmontar la figura de Ada Lovelace, sino solo el mito: “El propósito de mi derribo de la ficción de la primera programadora no es desacreditar a Lovelace; ella nunca hizo tal proclama. El derribo se dirige hacia aquellos que han confeccionado y perpetuado la ficción”.

De hecho, Swade lleva años defendiendo que la verdadera y valiosa aportación de Ada Lovelace, y aquella por la que debería ser celebrada y recordada, fue su capacidad de ver más allá: “Babbage no vio en ningún momento que las computadoras pudieran operar fuera de las matemáticas”, dice el historiador, mientras que “fue Lovelace, no Babbage ni sus contemporáneos, quien vio que los números podían representar entidades diferentes de las cantidades: notas de música, letras del abecedario o más cosas, y que el potencial de las computadoras residía en el poder de representación de los símbolos, en su capacidad de manipular representaciones simbólicas del mundo de acuerdo a unas reglas”.

Ada Lovelace continuará siendo lo que siempre ha sido, pionera de la computación, una figura brillante y adelantada a su época que combinó maravillosamente su vocación científica con la herencia poética que le venía de familia; un espléndido ejemplo para las Ciencias Mixtas. Mañana contaré algún aspecto más de su vida, igualmente insólito.

¿Qué tiene más pelos, una polilla o una cabeza humana?

A estas alturas creo que todos sabemos reconocer una pregunta trampa; evidentemente, una polilla tiene más pelos que una cabeza humana. Pero seguro que no imaginan cuántos más: unas 100.000 veces más. Frente a los 100.000 cabellos en la azotea del Homo sapiens medio (cifra que, sobra decirlo, varía salvajemente entre particulares), el cuerpo del insecto lleva cerca de 10.000 millones de pelos. ¿A que tampoco podían sospechar que una abeja tiene aproximadamente el mismo número de pelos que una ardilla, unos tres millones?

Una polilla procesionaria del pino. Imagen de Alvesgaspar / Wikipedia.

Una polilla procesionaria del pino. Imagen de Alvesgaspar / Wikipedia.

Los números son de Guillermo Amador y David Hu, investigadores del Instituto Tecnológico de Georgia (EE. UU.). Pero Amador y Hu no se dedican a contar los pelos de los animales por puro pasatiempo, tortuoso placer o aspiración de récord Guinness. Los curiosos datos no solo sirven para el arranque de un artículo como este, sino que tienen un propósito dentro de una disciplina muy candente llamada biomimética.

La biomimética consiste en hacer ingeniería inversa de la naturaleza para copiar sus mecanismos. Aunque (atención, importante) la evolución NO perfecciona ni mejora la naturaleza, como erróneamente suele creerse, sí es cierto que dota a los organismos de sistemas para interaccionar con su entorno que no solamente tienden a la eficacia, sino también a la eficiencia energética, dado que ahí fuera siempre se está librando una batalla por consumir menos energía de la que se adquiere.

Amador y Hu se hicieron una pregunta: ¿cómo logran los seres vivos mantenerse limpios? Y obviamente, desentrañando los sistemas empleados por las distintas especies para conservar una cierta pulcritud, sería posible tratar de imitar estos mecanismos en nuestra ingeniería. El diseño de materiales que repelan la suciedad, sin necesidad de pinturas o recubrimientos especiales, ahorraría ingentes cantidades de dinero, sudor humano y riesgo laboral en la limpieza de fachadas de rascacielos.

En otros casos la simple imposibilidad de pasar una bayeta puede malograr carísimos proyectos; pensemos, por ejemplo, en los robots que operan sobre la superficie de otros planetas, que en ciertas ocasiones han sufrido graves crisis de funcionamiento simplemente por el depósito de polvo en sus paneles solares.

Para estudiar las estrategias de limpieza de los animales, los investigadores de Georgia Tech debían fijarse especialmente en el pelo, ya que, calculan, este multiplica por 100 la superficie total expuesta de un organismo. Y aquí vienen más datos curiosos: según Amador y Hu, una abeja posee una superficie corporal total similar a la de una tostada, un gato la de una mesa de ping pong, una chinchilla la de un todoterreno y una nutria la de una cancha de hockey.

El pelo protege del frío, pero a cambio es una trampa para el polvo y la mugre. Y sin embargo, según explican los investigadores en su estudio, publicado en la revista Journal of Experimental Biology, el pelo también ayuda a la limpieza, manteniendo la suciedad lejos del cuerpo, impidiendo que se adhiera a la piel y facilitando su eliminación.

Revisando trabajos previos de otros autores, Amador y Hu descubren que los animales emplean básicamente dos clases de técnicas para mantenerse limpios. La primera es activa, a través de estructuras móviles que peinan los pelos para retirar los depósitos, como sucede en los insectos; algunos animales segregan sustancias químicas limpiadoras o emplean la acción mecánica, como los perros cuando se sacuden el agua.

Pero a los investigadores les interesa especialmente otro tipo de estrategias, las pasivas, las que no implican un gasto de energía del propio animal, ya que son estas las que podrían facilitar el diseño de materiales resistentes a la suciedad. Las pestañas, por ejemplo, no solo actúan como barrera, sino que además redirigen la circulación del aire. Las cigarras llevan en sus alas un prodigioso sistema de pinchos microscópicos que destruyen las bacterias.

Los investigadores han publicado este breve vídeo que muestra cómo se asean una abeja y una mosca de la fruta. En el caso de la mosca, se aprecia cómo los pelos le sirven de catapulta para expulsar la suciedad lejos del cuerpo.

Sin noticias de la estrella KIC 8462852: no llaman, no escriben…

El rastreo de posibles señales de vida inteligente en la misteriosa estrella KIC 8462852 no ha encontrado nada. Ni saludos, ni signos de que alguien allí esté empleando sistemas de transporte avanzados que dejen una huella electromagnética detectable desde la Tierra.

Marvin el marciano. Imagen de Warner Bros.

Marvin el marciano. Imagen de Warner Bros.

La estrella, a la que los astrónomos llaman coloquialmente Estrella de Tabby (por Tabetha Boyajian, responsable del hallazgo) o WTF (por Where’s the Flux, “dónde está el flujo”, o también por What the Fuck, “pero qué coño”), ha estado en boca de científicos, ufólogos, periodistas de ciencia y curiosos en general debido a su comportamiento aberrante, nunca antes observado. Los datos del telescopio espacial Kepler mostraron que la luz de la estrella se atenúa periódicamente hasta en un 20% (más información aquí). Aunque esto probablemente se deberá a un fenómeno natural inédito, qué mejor ocasión para fantasear con la posibilidad de que una supercivilización superinteligente y supertecnológica ha creado una superestructura alrededor de su estrella para recolectar su energía.

Ya, ya; la idea resultará estrafalaria a quien la oiga por primera vez, pero lo cierto es que estas megaestructuras hipotéticas fueron propuestas formalmente por el prestigioso físico Freeman Dyson, y durante décadas han formado parte de las teorías sobre la posible evolución de civilizaciones tecnológicas como, por ejemplo, la nuestra. Según su configuración, se conocen como anillos de Dyson, esferas de Dyson, o enjambres de Dyson si se trata de una masa de pequeños artefactos móviles.

Este último caso fue el que se imaginó para KIC 8462852. Una civilización semejante, con un dominio de su estrella, dispondría de la energía suficiente para emitir señales de radio con una potencia que en la Tierra ni podríamos soñar. Así que los investigadores del Instituto SETI (siglas en inglés de Búsqueda de Inteligencia Extraterrestre) en Mountain View, California, orientaron hacia la estrella el complejo de 42 antenas de la matriz de telescopios Allen (ATA).

La escucha ha ocupado la segunda quincena de octubre. Los científicos han buscado señales de frecuencia muy alta, entre 1 y 10 gigahercios, en el rango de las microondas, y tanto en banda estrecha –como se haría si se enviara una comunicación deliberada en una dirección– como en banda ancha –para buscar señales en todas direcciones procedentes de tecnología empleada en la propulsión de naves–.

Pero según detallan los investigadores en un estudio disponible en la web de prepublicaciones arXiv, sin éxito. Lo que se puede concluir es que hace 1.500 años (la estrella se encuentra a unos 1.500 años luz de nosotros) no había allí nadie transmitiendo una señal en todas direcciones como mínimo 100 veces más potente que la de los mayores transmisores terrestres, para la banda estrecha, o diez millones de veces, para la banda ancha.

La buena noticia es que estos límites son altos, porque la estrella está muy lejos y el ATA no puede ofrecer una sensibilidad con un umbral más bajo. La mala noticia es que, según los autores, si la señal se orientara hacia nuestra parte de la galaxia, la energía necesaria sería mucho menor.

La buena noticia es que no tendrían por qué transmitir hacia nosotros, dado que no saben que estamos aquí; las señales que recibimos ahora son de hace 1.500 años, y en caso de que ellos hubiesen detectado la Tierra como un posible planeta habitable, habrían recogido la luz de nuestro Sol de otros 1.500 años antes, lo que hace un total de 3.000 años. Sobre el año 1.000 a. C., por aquí estábamos muy ocupados disfrutando de nuestra última innovación tecnológica: el hierro.

Pero la mala noticia es que una civilización con un enjambre de Dyson tendría a su disposición los aproximadamente 1.000 cuatrillones de vatios de su estrella (10^27); serían como esos tuneros que abren el maletero y ponen música a toda la comarca.

Finalmente, la buena noticia, o más bien el único consuelo, es que los investigadores del SETI no se dan por vencidos y continuarán vigilando la estrella WTF. Y que, esperemos que más pronto que tarde, otros científicos descubrirán cuál es el fenómeno (natural) que está tapando parte de la luz de la estrella, y seguro que se tratará de un sorprendente hallazgo astronómico. Pero por el momento, ET sigue sin llamar, lo que por desgracia es otro punto más para quienes defienden la hipótesis pesimista de que tal vez no haya nadie más ahí fuera.

Como consuelo, para este domingo les dejo aquí la historia sobre el hombre de las estrellas que envía su mensaje por radio a la Tierra: Starman, del gran David Bowie.