BLOGS
Ciencias mixtas Ciencias mixtas

Los secretos de las ciencias para
los que también son de letras

Biología sintética y los ingenieros de Alien: ¿vuelven los ‘carros de los dioses’?

Aún no he tenido ocasión de ver el nuevo fascículo de la saga Alien. Los que aún tenemos polluelos estamos un poco limitados en nuestras salidas, así que más allá de lo puramente cinematográfico, todavía ignoro qué nuevos hilos aporta Alien: Covenant sobre la trama básica de la serie que comenzó a desvelarse en Prometheus, y que planteaba el argumento de una civilización alienígena autora de nuestra existencia, a la que se daba el nombre de “los ingenieros”.

Uno de los ingenieros de 'Prometheus'. Imagen de 20th Century Fox.

Uno de los ingenieros de ‘Prometheus’. Imagen de 20th Century Fox.

La idea de que podríamos ser las criaturas de algo superior es posiblemente tan antigua como el pensamiento humano, algo natural en una especie capaz de intentar comprenderse a sí misma. Para algunos académicos, es un ejemplo de lo que el biólogo evolutivo Stephen Jay Gould llamó exaptación, una característica que surge como subproducto de una adaptación favorable: nuestra capacidad cognitiva nos resulta útil para la supervivencia, pero también nos mete en camisas de once varas a la hora de tratar de explicar la naturaleza, incluido nuestro propio origen.

Así, para algunos expertos, ideas como Dios o los llamados antiguos astronautas tienen orígenes psicológicamente parecidos. Hay quienes en la misma línea añaden otros fenómenos, como las teorías de la conspiración o lo que se conoce entre sus adeptos como el Nuevo Orden Mundial: en todos los casos se supone la existencia de una inteligencia oculta que es responsable de las cosas que ocurren, las cuales ocurren con un propósito diseñado por esa inteligencia oculta.

Es curioso, porque la idea ha ido tomando diversas formas en función del estado del conocimiento humano en cada época y de lo que se denomina el Zeitgeist, el signo de los tiempos, o lo que la gente piensa en cada momento histórico. En tiempos antiguos era lo sobrenatural: los dioses o el Dios; más modernamente la ciencia introdujo el positivismo natural; y en el siglo XX hubo quienes trataron de crear una narrativa continua entre ambas formas de pensamiento: los antiguos astronautas, popularizados en los años 70 por autores como el suizo Erich von Däniken y sus “carros de los dioses”, que para este autor y otros eran un fenómeno natural –alienígenas– interpretado por sus presuntos testigos como uno sobrenatural –dioses–.

Hay quienes han situado el origen de las ideas de von Däniken en fuentes muy dispares, desde la mitología de Cthulhu de H. P. Lovecraft y su escalofriante novela En las montañas de la locura (por cierto, mitos que el escritor inventó como simple ficción), hasta las especulaciones del mismísimo Carl Sagan sobre antiguos contactos alienígenas. También se acusó al autor suizo de haber plagiado las ideas de otros.

Pero naturalmente, la hipótesis de von Däniken es pseudociencia, no corroborable ni refutable por métodos científicos, y que por tanto puede perpetuarse en la mente de quienes creen en ello sin tener que rendirse jamás a ninguna evidencia contraria. Lo cual, entre otras cosas y unido a lo provocador de la idea, mantuvo un rentable nicho de mercado para su autor, con independencia de que él realmente creyera en ello. Otros también han encontrado su filón en argumentos similares, como el español J. J. Benítez.

Paralelamente, dentro del ámbito de la ciencia hay también una larga tradición en la propuesta de que la vida pudo llegar a la Tierra desde el espacio; se conoce como panspermia. De hecho, suele atribuirse al filósofo griego Anaxágoras la primera mención de este término, al que en el siglo XIX se le dio una definición más científica como la siembra de vida a través del universo mediante microbios presentes en cuerpos viajeros; por ejemplo, asteroides y cometas.

La panspermia ha tenido sus defensores más significados en dos astrónomos, el británico Fred Hoyle y su alumno, el ceilanés Chandra Wickramasinghe. El primero, ya fallecido, aportó valiosos hallazgos sobre los procesos físico-químicos en las estrellas, además de acuñar el término Big Bang, aunque fuera con una intención irónica hacia una teoría en la que no creía. Pero tanto Hoyle como Wickramasinghe se han distinguido por sus propuestas estrambóticas y contrarias al conocimiento científico, como el rechazo a la evolución biológica o la afirmación de que la llamada gripe española de 1918 y otras graves pandemias llegaron a la Tierra desde el espacio. Hoyle llegó a decir que la posibilidad de que surja una célula a partir de sus componentes básicos es como si un tornado barre una chatarrería y ensambla un Boeing 747.

Entre la comunidad científica, la panspermia como la definieron Hoyle y Wickramasinghe provoca ceños fruncidos, cuando no reacciones más airadas. Lo cierto es que no existe ningún indicio para pensar que un microbio pueda sobrevivir a un largo viaje espacial en una roca, ni siquiera en estados de latencia como las esporas. Por el contrario, en los últimos años se han encontrado pruebas de que ciertas moléculas orgánicas propias de la vida sí pueden hacer tales viajes, una versión más débil de la panspermia que sí cuenta con el apoyo de algunos científicos. Y que no solo es diferente, sino casi opuesta a lo defendido por Hoyle y Wickramasinghe, ya que para estos no puede surgir la vida a partir de componentes simples.

Hay una tercera modalidad de panspermia aún más arriesgada, que es la dirigida: la idea de que la vida en la Tierra ha sido deliberadamente sembrada. Así volvemos a los antiguos astronautas de von Däniken o los ingenieros de Prometheus. Lo curioso es que esta idea también pseudocientífica ha obtenido casi más interés por parte de algunos científicos que la panspermia de Hoyle y Wickramasinghe. Uno de sus proponentes más notables fue Francis Crick, el codescubridor de la doble hélice de ADN; aunque en su descargo debe aclararse que Crick publicó su hipótesis en 1973, antes de saberse que el ARN es capaz de replicarse por sí mismo sin la intervención de otras moléculas.

Ya he mencionado arriba que Sagan, sin proponérselo, inspiró a autores como von Däniken al especular sobre posibles antiguas visitas alienígenas a la Tierra. El astrofísico y divulgador fue devastadoramente crítico con las ideas del suizo, y sobre la hipótesis de Crick escribió: “aunque no sabemos de nada que rigurosamente excluya la idea de la panspermia dirigida, de igual modo no hay nada que la apoye fuertemente”. A pesar de lo que circula por internet, no hay ninguna prueba de que Sagan creyera en teorías de antiguos astronautas, y en cambio sí hay pruebas de lo contrario.

Lo más llamativo de todo esto es que, según conté ayer, hoy podemos encontrar científicos reputados como Adam Steltzner, ingeniero jefe del rover marciano Curiosity, reflexionando públicamente y sin rubor sobre ideas que no son otra cosa que panspermia dirigida, antiguos astronautas e ingenieros. Por supuesto que Steltzner no estaba sentando cátedra cuando lo dijo, pero tampoco era una charla de café, sino una conferencia anual en Washington dedicada a explorar las fronteras de la ciencia. Y Steltzner es un ejemplo, pero no el único. Los biólogos sintéticos trabajan bajo la premisa de que esta tecnología puede avanzar espectacularmente en la recreación de múltiples procesos naturales de la vida. Y como también conté ayer, algunos no son contrarios a la idea de que estos avances, tal vez conseguidos ya por civilizaciones más avanzadas, puedan propagarse a través del universo. Dos y dos son cuatro.

Cuando Elon Musk, el magnate de SpaceX que quiere llevarnos a Marte, afirma que muy probablemente seamos el resultado de una simulación informatizada de nuestros futuros descendientes, en el fondo no es más que una nueva versión digital de la panspermia dirigida. Una diferencia esencial entre gente como von Däniken y gente como Musk es que los segundos se ganan el respeto con sus progresos reales. Y con ello, están extendiendo ideas audaces que están calando entre la comunidad científica, aunque solo sea como ciencia-espectáculo.

No creo que a Ridley Scott, artífice de la saga Alien, le haya pasado por alto el hecho de que con sus ingenieros tal vez haya pinchado en una veta de renovada actualidad. Es difícil determinar cuáles son causas y cuáles efectos. Pero en fin, todo esto está bien en la medida en que favorece la reflexión, la discusión y la creación de historias para que pasemos un buen rato en el cine. Siempre que no olvidemos que a día de hoy no tenemos absolutamente ningún indicio de que realmente haya alguien más en el universo.

Teleinvasión biológica: imprimir seres vivos a distancia en otros mundos

El otro día adelanté que les contaría otra fantasía sobre teleinvasiones, palabra que designa una invasión alienígena a distancia sin que los invasores estén presentes en persona, o en lo que sea, sobre el terreno del planeta invadido.

Como les expliqué, un concepto hoy plausible es el de emplear máquinas teledirigidas; tan plausible que ya se utiliza para nuestras invasiones locales, mediante drones y otros aparatos controlados a distancia. Un paso más allá será recurrir a máquinas inteligentes capaces de tomar sus propias decisiones, no necesariamente más crueles e inhumanas que las de un comandante de carne y hueso, como demuestran las pruebas que es innecesario citar.

Pero imaginen lo siguiente, y explótenlo si les apetece para escribir una historia: la población mundial está siendo exterminada por un extraño y letal patógeno, cuyo análisis revela que no se trata de un microorganismo natural terrestre. Cuando los epidemiólogos rastrean el patrón de propagación en busca del foco inicial, encuentran que no se localiza en una zona densamente poblada, sino muy al contrario, en una región extremadamente remota, desde la cual el patógeno ha podido propagarse por la circulación atmosférica. Cuando una expedición llega al lugar, encuentra un artefacto de procedencia desconocida. Al estudiarlo, los científicos descubren que no es una nave, sino una fábrica automatizada: un sintetizador biológico que ha creado el agente invasor a partir de materias primas moleculares. Los expedicionarios destruyen el aparato, pero ya es demasiado tarde para la humanidad. Mientras, los seres que enviaron la máquina esperan a que se complete la limpieza de su nuevo hogar.

¿Pura fantasía? Hoy sí. Pero sepan que el primer prototipo de una máquina controlable a distancia y capaz de crear un patógeno a partir de componentes moleculares básicos ya existe. Se llama Convertidor de Digital a Biológico (DBC, en inglés), se ha descrito hace pocas semanas en la revista Nature Biotechnology, y se ha utilizado ya para fabricar un virus de la gripe A H1N1 y un virus que infecta a las bacterias llamado ΦX174.

Este es el aspecto del prototipo del DBC. Imagen de Craig Venter et al. / Nature Biotechnology.

Este es el aspecto del prototipo del DBC. Imagen de Craig Venter et al. / Nature Biotechnology.

El autor de este prodigio es el biólogo, empresario y millonario J. Craig Venter, en su día artífice del Proyecto Genoma Humano en su rama privada, y uno de los líderes mundiales en el campo de la biología sintética. Entre sus últimos logros figura, en marzo de 2016, la creación de una bacteria con el genoma artificial mínimo necesario para la vida, que conté aquí.

Venter lleva unos años trabajando en torno a la idea de lo que él mismo llama “teletransporte biológico”, aunque la denominación puede ser engañosa, dado que lo único que se transporta en este caso es la información. El DBC puede recibir a distancia, por internet o radio, una secuencia genética o la secuencia de aminoácidos de una proteína. Después la máquina imprime la molécula utilizando sus componentes básicos. Tampoco “imprimir” es quizá el término más adecuado, pero Venter lo emplea del mismo modo que hoy se usa para hablar de impresión en 3D. En lugar de cartuchos con tinta de colores, el DBC utiliza depósitos con los ladrillos del ADN: adenina (A), guanina (G), timina (T) y citosina (C).

El DBC es todavía un prototipo, una máquina formada por piezas sueltas. Pero funciona, y ya ha sido capaz de imprimir cadenas de ADN y ARN, proteínas y partículas virales. Y naturalmente, más allá del argumento fantástico de la teleinvasión biológica, todo esto tiene un propósito. Pero sobre el ruido de fondo del rasgado de vestiduras de los anticiencia, déjenme hundir una idea hacia el fondo: el primer propósito de la ciencia, y el único necesario para justificarla, es el conocimiento, porque el conocimiento es cultura.

Pero sí, hay aplicaciones prácticas. La idea que inspira la biología sintética es dominar la creación de la vida para obtener beneficios de una manera mejor que la actual, o que simplemente no son alcanzables de otro modo. Los microorganismos sintéticos pueden descontaminar el medio ambiente, fabricar energía o compuestos de interés, como medicamentos, alimentos, productos industriales o vacunas.

Volviendo al DBC, Venter imagina un futuro en el que estas máquinas estarán repartidas por el mundo para fabricar, por ejemplo, vacunas o fármacos. Ante una futura pandemia, y una vez que se logre obtener un remedio, no será necesario transportarlo a todas las zonas afectadas; bastará con transmitir las instrucciones a los DBC, y estos se encargarán de producirlo in situ.

Hasta aquí, tal vez algún lector biólogo replicará que los sintetizadores de oligonucleótidos existen desde hace décadas, aunque necesiten un operador humano para introducir las órdenes. Noten la diferencia, más allá de que antes se hablaba de “sintetizar” y hoy de “imprimir”: el DBC no solo crea cadenas cortas de ADN o ARN, sino genomas sencillos completos y proteínas, y los ensambla en partículas funcionales, todo ello sin que un humano esté presente. Pero el verdadero salto viene de las posibilidades futuras de esta tecnología cuando se conjuga con otros trabajos previos en biología sintética: concretamente, la posibilidad de imprimir microbios con genomas sintéticos diseñados a voluntad.

Venter es un tipo propenso a mirar de lejos que no se ha resistido a fantasear con la futura evolución de esta tecnología. Y uno de sus posibles usos, dice, sería producir microbios en Marte capaces de modificar el entorno para hacerlo más habitable para el ser humano; es lo que se conoce como terraformación, y es una posibilidad que Venter ya ha discutido con otro genio visionario embarcado en el proyecto de fundar una colonia marciana, Elon Musk.

Aquí entramos de nuevo en el terreno de la ciencia ficción, pero en una que no es teóricamente imposible. Venter quiere llegar a obtener una “célula receptora universal”, una bacteria vacía similar a la que él rellenó con un genoma artificial, pero que sea capaz de aceptar cualquier secuencia genética que se le quiera implantar para hacer lo que uno quiera que haga, o… convertirse en lo que uno quiera que se convierta. Incluso, tal vez, en un humano.

Sí, sí, un humano. Esta es la idea lanzada por George Church y Gary Ruvkun, biólogos sintéticos de la Universidad de Harvard. Church, Ruvkun y otros piensan que es ilusorio e inútil tratar de viajar a otras estrellas, y que en su lugar la expansión de la humanidad por el universo se llevará a cabo enviando bacterias cargadas con el genoma humano y utilizándolas después para imprimir humanos en el destino elegido.

Al fin y al cabo, una célula es lo que dice su genoma; una célula A puede transformarse en otra célula B si se le insertan los genes de la célula B. Y así, célula a celula, creciendo, dividiéndose y diferenciándose, una sola célula acaba creando un organismo humano completo. Esto ocurre en cada gestación. Pero también ha ocurrido a lo largo de nuestra evolución desde que éramos bacterias (o arqueas).

De hecho, si podría ocurrir, ¿cómo podemos saber que no ha ocurrido ya? Esta es la idea de Adam Steltzner, ingeniero jefe del rover marciano Curiosity en la NASA. “Puede que sea así como nosotros llegamos aquí”, dice Steltzner. ¿Y si nosotros, todos, la vida en la Tierra, fuéramos el producto de un DBC que alguien trajo aquí hace miles de millones de años?

¿Por qué invadir otro planeta, si se puede ‘teleinvadir’?

Dado que no tengo plan de escribir próximamente ninguna historia de ciencia ficción (mi Tulipanes de Marte era una novela con ciencia ficción, no de ciencia ficción), de vez en cuando dejo caer aquí alguna idea por si a alguien le apetece explorarla.

Tampoco pretendo colgarme ninguna medalla a la originalidad, dado que en general es difícil encontrar algo nuevo bajo el sol, o cualquier otra estrella bajo la cual haya alguien, si es que hay alguien bajo otra estrella. Imagino que ya se habrán escrito historias que no recuerdo o no conozco, y que plantean este enfoque. Pero en general, las ficciones sobre invasiones alienígenas se basan en la presencia física de los invasores en el territorio de los invadidos.

¿Por qué unos alienígenas sumamente avanzados iban a tomarse la molestia, poniendo en riesgo incluso sus propias vidas, de invadir ellos mismos?

Imagen de 'Mars Attacks!' (1996), de Tim Burton. Warner Bros.

Imagen de ‘Mars Attacks!’ (1996), de Tim Burton. Warner Bros.

Futurólogos como Ray Kurzweil pronostican un mañana en que los humanos cargaremos nuestras mentes en máquinas, llámense internet o la nube, y podremos alcanzar la inmortalidad prescindiendo de nuestros cuerpos biológicos. Descontando el hecho de que sería una inmortalidad insoportablemente aburrida, y de que los biólogos nos quedaríamos sin tarea, lo cierto es que hoy son muchos los investigadores en inteligencia artificial que trabajan inspirados por este horizonte. Así que sus razones tendrán.

Imaginemos una civilización que ha alcanzado semejante nivel de desarrollo. ¿No sería lógico que evitaran el riesgo de mancharse las manos (o sus apéndices equivalentes) con una invasión presencial, y que en su lugar teleinvadieran, sirviéndose de máquinas controladas a distancia o capaces de razonar y actuar de forma autónoma?

Una buena razón para ello aparecía ya en la novela que comenzó a popularizar el género en 1897. En La guerra de los mundos de H. G. Wells, los marcianos llegaban a la Tierra a bordo de sus naves, un esquema copiado después una y otra vez. La última versión para el cine, la que dirigió Spielberg en 2005, aportaba una interesante variación: las máquinas de guerra ya estaban presentes en la Tierra desde tiempos antiguos. Pero también en este caso, sus creadores se desplazaban hasta nuestro planeta para pilotarlas.

Como biólogo que era, Wells resolvió la historia con un desenlace científico genial para su época. Aunque el concepto de inmunidad venía circulando desde antiguo, no fue hasta finales del XIX cuando Pasteur y Koch le dieron forma moderna. Wells tiró de esta ciencia entonces innovadora para matar a sus marcianos por una infección de bacterias terrestres, contra las cuales los invasores no estaban inmunizados. La idea era enormemente avanzada en tiempos de Wells, y si hoy parece casi obvia, no olvidemos que prácticamente todas las ficciones actuales sobre alienígenas la pasan por alto (una razón más que hace biológicamente implausibles la mayoría de las películas de ciencia ficción).

Marciano moribundo en 'La guerra de los mundos' (2005). Imagen de Paramount Pictures.

Marciano moribundo en ‘La guerra de los mundos’ (2005). Imagen de Paramount Pictures.

Así, cualquier especie alienígena invasora preferiría evitar riesgos como el de servir de comida a una legión de microbios extraños y agresivos, lo que refuerza la opción de la teleinvasión. Pero hay una limitación para esta idea: la distancia a la que se puede teleinvadir.

Dado que la velocidad máxima de las transmisiones es la de la luz, una teleinvasión en tiempo real obligaría a los alienígenas a acercarse lo más posible a la Tierra. Ya a la distancia de la Luna, una transmisión de ida y vuelta requiere 2,6 segundos, un tiempo de reacción demasiado largo. Probablemente les interesaría mantenerse en una órbita lo suficientemente alejada para evitar una respuesta de la Tierra en forma de misiles.

Y lo mismo que sirve para una invasión alienígena, podría aplicarse a la visita humana a otros mundos. Precisamente esta telepresencia es el motivo de un artículo que hoy publica la revista Science Robotics, y cuyos autores proponen esta estrategia para explorar Marte. Naturalmente, esta ha sido hasta ahora la fórmula utilizada en todas las misiones marcianas. Pero el retraso en las comunicaciones entre la Tierra y su vecino, que oscila entre 5 y 40 minutos según las posiciones de ambos planetas en sus órbitas, impide que los controladores de la misión puedan operar los robots en tiempo real.

Los autores proponen situar un hábitat no en la superficie marciana, sino en la órbita, lo que reduciría los costes de la misión y los riesgos para sus tripulantes. Los astronautas de esta estación espacial marciana podrían controlar al mismo tiempo un gran número de robots en la superficie, que les ofrecerían visión y capacidad de acción inmediatas, casi como si ellos mismos estuvieran pisando Marte. Las posibilidades son casi infinitas, por ejemplo de cara a la ejecución de experimentos biológicos destinados a buscar rastros de vida pasada o presente. Los autores apuntan que ya hay un grupo en el Instituto Keck de Estudios Espaciales dedicado a evaluar la teleexploración de Marte.

Concepto para una exploración de Marte por telepresencia desde un hábitat en órbita. Imagen de NASA.

Concepto para una exploración de Marte por telepresencia desde un hábitat en órbita. Imagen de NASA.

Claro que otra posibilidad, quizá más lejana en el futuro, es que estas máquinas puedan pensar por sí mismas sin necesidad de que nadie las controle a distancia. En el mismo número de Science Robotics se publica otro artículo que evalúa un software inteligente llamado AEGIS, instalado en el rover marciano Curiosity y que le ha permitido seleccionar de forma autónoma las rocas y suelos más interesantes para su estudio, con un 93% de precisión.

Pero esto es solo el principio. En un tercer artículo, dos científicos de la NASA reflexionan sobre cómo las futuras sondas espaciales inteligentes podrán trabajar sin intervención humana para la observación de la Tierra desde el espacio, para la exploración de otros mundos del Sistema Solar e incluso para viajar a otras estrellas. Escriben los investigadores:

El último desafío para los exploradores científicos robóticos sería visitar nuestro sistema solar vecino más próximo, Alfa Centauri (por ejemplo, Breakthrough Starshot). Para recorrer una distancia de más de 4 años luz, un explorador a este sistema probablemente se enfrentaría a una travesía de más de 60 años. A su llegada, la sonda tendría que operar de forma independiente durante años, incluso décadas, explorando múltiples planetas en el sistema. Las innovaciones actuales en Inteligencia Artificial están abriendo el camino para hacer realidad este tipo de autonomía.

Y eso no es todo. Hay un paso más en la telepresencia en otros planetas que aún es decididamente ciencia ficción, pero que hoy lo es un poco menos, dado que ya se ha colocado la primera piedra de lo que puede ser una tecnología futura casi impensable. Si les intriga saber de qué se trata, vuelvan mañana por aquí.

Repito: adiós a la señal alienígena, mientras nadie demuestre lo contrario

Esta semana, el microbiólogo ilicitano Francisco Martínez Mojica, de la Universidad de Alicante, ha recibido el prestigioso y sustancioso premio Fundación BBVA Fronteras del Conocimiento por haber descubierto un sistema de defensa de los microbios de las salinas de Santa Pola que, con el correr del tiempo y de las investigaciones, ha permitido crear CRISPR: la mejor herramienta de cortapega genético de la historia de la biología molecular, uno de los mayores hallazgos de este incipiente siglo y una promesa para la corrección de ciertas enfermedades.

¿Qué tendrá esto que ver con el título del artículo? Este Yanes ha perdido el oremus, tal vez estén pensando. Pero aguántenme un momento, que sigo para llegar a donde voy.

Mojica recibió el premio compartido en paridad con Emmanuelle Charpentier y Jennifer Doudna, las científicas que en la práctica convirtieron esta excentricidad de las bacterias (en realidad arqueas, que no son bacterias) en un valioso instrumental quirúrgico molecular. Mojica fue el descubridor; Charpentier y Doudna, las inventoras.

Hasta ahí, todo correcto. Lo interesante viene al analizar el caso más a fondo, una historia que ya expliqué aquí con detalle. Hasta hace año y medio, nadie sabía quién era Francisco Martínez Mojica. CRISPR ya era una revolución entre la comunidad científica y en los (cada vez más escasos) medios populares que se ocupan de los asuntos de ciencia, pero nadie sabía que su descubridor, y quien le puso el nombre de CRISPR, era un español que trabaja en Alicante. De hecho, nadie sabía quién era su descubridor, y a nadie parecía importarle.

Hasta que, en enero de 2016, a uno de los biólogos más influyentes del mundo, Eric Lander, le dio por investigar la historia de CRISPR para publicar un extenso artículo titulado “Los héroes de CRISPR” en la revista científica de biología número uno del mundo, Cell. Uno de aquellos héroes, especialmente reivindicado en el artículo, era Mojica.

De repente, todo cambió: poco después Mojica aparecía hasta en la Wikipedia, y su nombre comenzó a rumorearse para el Nobel. Pero para entonces, el investigador ya se había perdido los tres millones de dólares del Breakthrough Prize, que recibieron solo Charpentier y Doudna, y lo que es aún más grave, el Princesa de Asturias de Investigación 2015, que recibieron solo Charpentier y Doudna. Aún más grave, dado que el presuntamente muy docto jurado de un premio de tal prestigio no se molestó en hacer lo que después hizo Lander, investigar quién lo merecía, y así un premio español dejó fuera a un español tan acreedor de la distinción como las dos premiadas; una mancha para estos premios que difícilmente podrá repararse.

Y así llego a donde quiero llegar: amigos, por desgracia en muchos casos la ciencia está muy alejada de sus ideales de neutralidad y objetividad. Los científicos están contaminados por los mismos sesgos humanos que de repente convierten en mercancía mediática valiosa a algo como el cocinero ese. Mojica vio cómo su trabajo original era rechazado sucesivamente por la revista Nature y por otras publicaciones de primer nivel sin que siquiera fuera enviado a revisión. Solo consiguió por primera vez colar su firma en una de las revistas filiales de Nature en 2011, diluido entre un bosque de Charpentiers, Koonins, Horvaths y van der Oosts. Cuando su nombre fue descubierto por Lander y comenzó a pronunciarse en las mismas frases que la palabra “Nobel” (que, yo confío, llegará), algunos investigadores extranjeros contactados por varios medios arrugaban la nariz: ¿Nobel? ¿Alicante? ¿Dónde está eso? ¿Cerca de Magaluf?

Ahora tenemos otro posible caso. Se llama Antonio Paris y, como ya expliqué ayer, y como Mojica, no da el perfil ideal: es profesor en una universidad estatal de segunda fila, firma sus investigaciones desde su propio “centro virtual” creado por él mismo, The Center for Planetary Science, suele publicar solo y, sobre todo y para colmo, dedica parte de su tiempo a la investigación científica del fenómeno ovni.

El protagonista de la polémica, el astrónomo Antonio Paris. Imagen de The Center for Planetary Science.

El protagonista de la polémica, el astrónomo Antonio Paris. Imagen de The Center for Planetary Science.

Insisto, posible caso. Entiéndanme, ni mucho menos pretendo comparar a Paris con Mojica, pues el primero no reúne, al menos hasta hoy, los méritos del segundo. Pero como excientífico y veterano periodista de ciencia, me ha parecido que las críticas vertidas a Paris y a su trabajo (repito, no solo a su trabajo, sino a él mismo) recuerdan en cierto modo al caso de Mojica por el insoportable tufillo a contaminación por sesgo y falta de neutralidad.

El trabajo publicado recientemente por Paris, que explica la señal Wow! por el paso de dos cometas (a quien esto le suene a griego clásico, puede encontrar más información aquí), ha recibido ciertas críticas por parte de otros científicos. Esto es normal y habitual, e incluso él mismo señalaba las limitaciones de su estudio y los datos que no encajan con su explicación ni con ninguna otra (por ejemplo, a la crítica de que el radiotelescopio captó la señal con uno de sus receptores, pero no con el otro, Paris ha sugerido la posibilidad, obvia, pero de la que nadie más ha hablado ni por supuesto nadie ha rebatido, de que simplemente el telescopio fallara).

Estas críticas han sido resaltadas por varios medios, que han presentado el asunto desde distintos enfoques, desde el más prudente de la duda, hasta el más arriesgado de afirmar que los resultados de Paris han sido rebatidos por otros científicos. Cuando publiqué ayer mi artículo, algún usuario perezoso en Twitter, de los que leen titulares pero no artículos, señalaba esto último.

Pero no, los resultados de Paris no han sido (aún) rebatidos por otros científicos. Tal vez lo sean mañana, dentro de un mes o de un año. Pero para serlo, deberán serlo por la misma vía que los ha admitido: la publicación científica mediante revisión por pares. Hasta entonces, los resultados de Paris deben considerarse provisionalmente válidos, como todo en ciencia.

Aunque también criticables, como todo en ciencia. El problema en este caso, y de ahí el tufillo que las convierte en sospechosas, es el contenido de estas críticas. No soy astrofísico, y por tanto no estoy cualificado para valorar directamente la calidad de los resultados de Paris. Pero cuando se crea en Reddit un hilo en el que se atacan los resultados de alguien comenzando por cuestionar su heterodoxo perfil y sus credenciales profesionales; cuando se critica el estudio porque la revista en la que se ha publicado no es de las favoritas de los astrónomos; cuando las críticas proceden en parte del descubridor original de la señal, quien de forma más o menos soslayada siempre ha creído en su origen alienígena; cuando, y esto sí que es de chiste, se critica a Paris por hacer “ciencia de nota de prensa”, cuando los resultados de Paris no son una nota de prensa sino un estudio científico publicado, y cuando quien profiere tal crítica no ha publicado una refutación científicamente validada y por tanto sí está haciendo ciencia de nota de prensa…

Miren, yo no conozco a Paris más allá de los breves contactos motivados por los reportajes que he escrito sobre su trabajo. No tengo simpatía por él ni lo contrario. Y personalmente, me encantaría que la señal Wow! fuera realmente el primer saludo alienígena de la historia, así que los resultados de Paris no juegan a favor de lo que me gustaría.

Pero seamos neutrales, honestos y objetivos. Los resultados y sus conclusiones merecen el respeto de cualquier otra publicación científica mientras no se demuestren erróneos por la vía oficial, no en prensa, blogs y reddits. Su autor merece el respeto de cualquier otro científico mientras no se demuestre que ha falseado sus datos de mala fe. Estas son las reglas del juego de la ciencia: hoy debemos aceptar que la balanza se inclina oficialmente hacia una explicación natural de la señal. A quien no le guste, que no lo diga, que lo demuestre y lo publique, y aquí lo contaremos con mucho gusto.

Adiós a la única señal de posible origen alienígena

A los que secundamos el I want to believe, pero no nos vale con el “haberlos, haylos”, y no encontramos argumentos biológicos sólidos para defender su existencia, al menos nos quedaba el consuelo de la señal Wow! Por desgracia, ahora, parece que ya no.

Hasta la fecha, no hemos encontrado una sola prueba creíble de la existencia de alienígenas. La fiebre ovni del siglo pasado remitió sin culminar en ninguna revelación extraordinaria, y todos los rastreos de señales de alguien ahí fuera (lo que se conoce como Búsqueda de Inteligencia Extraterrestre, o SETI) han terminado hasta ahora con las manos vacías.

La estupefacción de los astrónomos ante la llamada paradoja de Fermi (según aquella idea atribuida al físico italiano: si hay tantos por ahí, ¿dónde están?) ha dado lugar a hipótesis de lo más variopinto, rayando casi en lo estrafalario; la última que leí hace unos días, de unos investigadores de Oxford y Belgrado, sugiere que los alienígenas han alcanzado tal nivel tecnológico que se han convertido en máquinas, prescindiendo de sus cuerpos biológicos. Y que como los ordenadores funcionan mejor en frío, están dormidos esperando a que el universo se expanda más y baje la temperatura para activarse de nuevo. O dicho de otro modo, que están echando la siesta hasta que pase la ola de calor. Lo cual convierte en algo muy dudoso que los veamos por la Península estos días.

Pero quedaba un indicio sin explicación, un expediente X real. En 1977, un primitivo radiotelescopio en Ohio captó una fuerte señal de radio del cielo que hasta ahora nadie había podido asignar satisfactoriamente a ningún fenómeno natural. Dado que aquel telescopio no podía moverse a izquierda y derecha (técnicamente, ascensión recta), podía captar un punto determinado del firmamento durante 72 segundos, el tiempo que la propia rotación terrestre hacía pasar ese punto por delante de la ventana de observación del telescopio. Y 72 segundos fue lo que duró la señal; al volver a escuchar posteriormente el mismo punto del cielo, sólo se encontró silencio, y jamás ha vuelto a repetirse.

La señal Wow! Imagen de Wikipedia.

La señal Wow! Imagen de Wikipedia.

El astrónomo que se encontraba aquel día dedicando parte de su tiempo libre a aquella especie de actividad extraescolar de buscar alienígenas era Jerry Ehman. Cuando Ehman descubrió la señal marcada en el papel continuo de la impresora, la rodeó con bolígrafo rojo y escribió “Wow!”. Desde entonces, se ha conocido como la señal Wow!.

La señal Wow! ha permanecido inexplicada durante casi 40 años. Hasta que a finales de 2015, un astrónomo del St. Petersburg College de EEUU llamado Antonio Paris publicó un estudio proponiendo que la presunta transmisión alienígena era en realidad el ruido producido por el paso de dos cometas llamados 266P/Christensen y P/2008 Y2 (Gibbs).

Estos cometas no se descubrieron hasta 2006, y por tanto no eran conocidos en 1977, cuando se captó la señal. Pero el cálculo de sus órbitas reveló que sus posiciones en el cielo el día de la señal Wow! eran compatibles con el lugar del que procedía la emisión. Además, la frecuencia de radio de la señal, 1.420 megahercios, coincide también con la del hidrógeno, y precisamente los cometas están rodeados por una gran nube de hidrógeno.

Paris es un tipo heterodoxo. Además de su trabajo como astrónomo y profesor, dedica parte de su tiempo a la investigación científica del fenómeno ovni. En enero de 2016 cubrí su estudio para otro medio. Cuando contacté con otros expertos para que valoraran su hipótesis, me expusieron algunas pegas; sobre todo, que la señal Wow! parecía demasiado potente para proceder de un cometa, y que estos objetos se mueven despacio en el cielo, y que por tanto la emisión debería haberse detectado otra vez cuando el telescopio de Ohio volvió a observar la misma región. Pero cuando le pregunté a Paris qué le parecían estas objeciones, se limitó a responderme con una frase de Spock en Star Trek: “soy un científico, no tengo emociones”.

La historia ha tenido ahora su continuación. Uno de los dos cometas, el 266P/Christensen, debía pasar a comienzos de este año por la misma región del cielo donde se detectó la señal Wow!. Por tanto, era una ocasión magnífica para estudiar la emisión del cometa y comprobar hasta qué punto se parecía a la señal de 1977. Para complementar sus observaciones, Paris ha estudiado también otros cometas.

Las conclusiones, publicadas hace un par de semanas, parecen confirmar la hipótesis: “Los resultados de esta investigación, por tanto, concluyen que los espectros de los cometas son detectables a 1.420 MHz y, más importante, que la señal Wow! de 1977 fue un fenómeno natural de un cuerpo del Sistema Solar”, escribe Paris.

¿Asunto zanjado? ¿Adiós a los aliens? Las objeciones originales sobre la fuerza de la señal y su rapidez aún persisten; aunque respecto a lo primero, Paris ya me advirtió el año pasado de que sería difícil cuadrar la potencia actual de la señal, dado que los cometas habrán perdido gran parte de su masa desde 1977. Pero por lo demás, algunos expertos han planteado otras nuevas pegas que resultan más bien ridículas, como que Paris ha financiado su investigación por crowdfunding, o que la revista donde ha publicado el estudio, Journal of the Washington Academy of Sciences, no es un foro donde los astrónomos suelen enviar sus trabajos.

Mientras, Ehman, que aún vive pero ya retirado, mantiene la actitud gallega que ha mantenido siempre: puede ser, o puede no ser, no se ha probado una cosa, ni la contraria. En el fondo, Ehman parece seguir albergando la esperanza de que aquel día su boli rojo subrayara el primer y hasta hoy único mensaje recibido de otro mundo. Pero por desgracia, y mientras nadie refute los resultados de Paris, hoy tenemos aún menos razones para confiar en que las pruebas que no han llegado hasta ahora acaben llegando. Bueno, tal vez aún nos queden los radiodestellos rápidos (FRB).

No, la ciencia no es de izquierdas (ni de derechas)

Me llega noticia de la publicación de un libro que analiza el fenómeno de la izquierda anticientífica, ese sector que abraza pseudociencias y conspiranoias, y que rechaza el conocimiento científico actual relativo a asuntos como las llamadas terapias alternativas, las vacunas o los alimentos transgénicos; en resumen, eso que algunos ahora llaman movimiento anti-ilustración, pero en su versión zurda.

Perdonen que no les detalle el título ni el autor, pero una razón me lo aconseja: no he leído el libro y por tanto no quisiera que esto se interpretara como una crítica negativa a una obra en la que evidentemente se ha vertido mucho trabajo y esfuerzo. No tengo motivos para pensar que el autor no haya desarrollado sus razonamientos de forma eficaz y rigurosa, así que este comentario no se refiere al libro, sino a la idea que lo inspira. Porque es una idea muy común, pero es una idea opinable, y en mi opinión es una idea equivocada (y no soy el único). No suelo tratar aquí de política, pero la acción del tópico requiere una reacción, especialmente de quien, como el que suscribe, NO tiene bando político.

La idea en cuestión consiste en pensar que la ciencia es patrimonio de la izquierda, o que la ciencia está en el ADN de la izquierda, o que la izquierda nació de la ciencia, o que la ciencia es de izquierdas. Elijan la versión que prefieran; todas ellas circulan por ahí, pero vienen a resumirse en lo mismo: derecha = ocurantismo, ignorancia y superstición; izquierda = luz, ciencia y razón. Circulan por ahí, naturalmente… entre las personas de izquierdas, como el autor del libro, cuya motivación es indagar en algo que al parecer le provoca estupefacción: ¿cómo es posible que la izquierda, ¡mi izquierda!, caiga en la trampa de la pseudociencia?

Desde luego, quien pretenda hacer una tesis de esta idea puede encontrar argumentos. Si quieren, yo se los facilito: teóricos, como que la ciencia es progreso, y la izquierda es progresista; o históricos, como que la razón fue el motor de la Revolución Francesa (el momento en que la izquierda política se diferenció de su bando rival), o que la Segunda República española fue un período de florecimiento científico.

Pero por cada ejemplo, siempre hay un contraejemplo. No es ninguna sorpresa que la ciencia existió durante siglos sin necesitar izquierdas ni derechas, creciendo en cada época en la medida de sus posibilidades técnicas y del conocimiento acumulado. Ni que Marx rechazaba el positivismo de otros filósofos sociales como Comte.

Respecto a la tan idolatrada Revolución Francesa, y descontando incluso el hecho de que se ejecutó a multitud de inocentes para terminar cambiando a un monarca absoluto por un emperador absoluto, lo cierto es que los científicos franceses estaban repartidos en ambos bandos; de hecho, durante siglos la ciencia fue una ocupación de los más acomodados, aquellos que no debían cavar zanjas para ganarse la vida.

En cuanto a la llamada Edad de Plata española, sí, murió con el golpe de estado de 1936, la Guerra Civil y la postguerra, pero no, no comenzó con la República, sino mucho antes. Casi sobra recordar que el único Nobel español de ciencia fue muy anterior.

Respecto al interés de la República en la ciencia, y para no caer en simplificaciones idealistas del pasado, suelo citar este caso: Manuel Azaña, que si no me equivoco era de izquierdas, sí tenía interés en la ciencia. En su primera etapa de gobierno firmó un decreto para que un sector del Monte de El Pardo se destinara a la construcción de un nuevo Museo de Ciencias Naturales, un Jardín Botánico y laboratorios de investigación. Cuando volvió al gobierno en 1936, encontró que no se había movido un dedo. Y escribió:

Si hubiese decretado que en los terrenos se construyesen grupos escolares, piscinas y campos de deporte, todo el mundo lo habría comprendido, y ya estarían hechos. Muy bien está hacerlos. Pero vaya usted a interesar al poder público, es decir, a unos ministros, unos subsecretarios y directores desvanecidos, en la obra impersonal de crear un museo, un jardín botánico, unos laboratorios, que no dicen nada a las clientelas. Es un ejemplo de la falta de espíritu en el Estado y de la falta de continuidad.

A pesar de los cambios de gobierno durante la República, Azaña no culpaba a ningún bando político concreto, sino al poder público español en general, a los políticos, a los burócratas. Y por cierto, me encanta la referencia a cómo las cosas habrían sido diferentes si se hubiera propuesto construir instalaciones deportivas. Algunas cosas en España no han cambiado en 80 años.

Por último, y respecto a la relación entre ciencia y progresismo, lo reservo para el final. Pero sobre cómo la derecha y la izquierda han tratado a la ciencia, pueden buscarse ejemplos horribles en ambos bandos. Por elegir uno de cada casa:

Derecha: el darwinismo social

Herbert Spencer. Imagen de Wikipedia.

Herbert Spencer. Imagen de Wikipedia.

Sepan que la llegada a Norteamérica de la teoría de Darwin, el mayor avance científico de la historia de la biología, se encontró con la feroz oposición de lo que hoy consideraríamos izquierda, sectores afroamericanos que luchaban por la justicia social. Pero en realidad, no tenía nada de raro. Aunque Darwin postulaba un origen común para las diferentes razas humanas (un concepto, el de raza, hoy científicamente desacreditado), sí hablaba de unas más evolucionadas que otras, a lo cual los curas negros reaccionaron defendiendo el humanismo cristiano frente a la, creían ellos, deshumanización darwiniana.

Pero es que, naturalmente, había una razón, y era el darwinismo social. Tras la publicación de la obra fundamental de Darwin, algunos pensadores políticos que hoy calificaríamos de derechas, como Herbert Spencer, trataron de convertir lo que era únicamente una descripción de un fenómeno natural en un principio rector de la sociedad. El darwinismo social (término que no empleaban sus defensores) contemplaba la sociedad humana como una lucha por la vida donde primaba la “supervivencia del más apto”, una expresión acuñada por Spencer y no por Darwin, y donde los menos adaptados eran eliminados por selección natural.

De este modo, la apelación al orden natural se empleaba para fundamentar la injusticia social, la competencia económica despiadada, el colonialismo o incluso la guerra por los recursos. El darwinismo social fue (y es) una perversión de la ciencia para hacerla servir como excusa de un sistema ideológico, político y económico.

Izquierda: el lysenkoísmo

En el siglo XIX, un monje checo llamado Gregor Mendel formuló las leyes de la herencia, que explican cómo los rasgos se transmiten a la descendencia; en su caso, en las plantas de guisante. Las leyes de Mendel implicaban que todo ser vivo nace ya condicionado por el bagaje genético que ha recibido de sus progenitores; incluso desde antes de venir al mundo, no somos iguales.

Trofim Lysenko. Imagen de Wikipedia.

Trofim Lysenko. Imagen de Wikipedia.

Todo lo cual resultaba inaceptable en un lugar del mundo donde la igualdad era, al menos en teoría, el principio absoluto del orden natural, moral y social: la Unión Soviética. En 1928, un ingeniero agrónomo llamado Trofim Lysenko creyó haber descubierto un método al que llamó vernalización, y por el cual podía modificar las características de los cultivos por factores ambientales, de modo que los nuevos rasgos adquiridos se transmitían a la descendencia. Frente a la selección natural de Darwin, Lysenko defendía la cooperación natural entre las plantas para ayudar a su supervivencia.

Las ideas de Lysenko no solo resultaban más adecuadas al código ideológico soviético, basado en la crianza frente a la herencia, sino que además prometían inmensas mejoras en los cultivos para alimentar a las grandes masas de población. Como consecuencia, el lysenkoísmo se convirtió en la teoría biológica oficial en la URSS, fuertemente apoyada por el régimen de Stalin. Miles de biólogos fueron ejecutados o encarcelados en los gulags por empeñarse en defender la ciencia que sustentaba las leyes de Mendel y la selección natural de Darwin.

Naturalmente, el lysenkoísmo fracasó, sencillamente porque era pseudociencia; otra perversión de la ciencia para hacerla servir como excusa de un sistema ideológico, político y económico.

Y hoy seguimos igual…

Estos son tal vez los dos ejemplos históricos más clásicos y conocidos, pero hoy podemos seguir encontrando cómo ambos bandos del espectro político, derechas e izquierdas, continúan negando la realidad científica en apoyo de sus pre-juicios, ideologías o intereses. Tanto a un lado como al otro del arco hay quienes tratan la ciencia como si fuera un bufé libre, tomando aquello que les interesa y apartando lo que no les gusta.

La derecha tiende a rechazar la ciencia que contradice sus ideas religiosas o político-económicas; ejemplos, la homosexualidad, la evolución biológica (en los fundamentalismos cristianos) o el cambio climático.

Por su parte, la izquierda vitupera lo que para ella representa el imperio económico capitalista, y nada mejor para ello que la llamada big pharma: medicamentos, vacunas y transgénicos. De esta repugnancia visceral hacia el gran poder nacen también las abundantes y muy diversas conspiranoias.

En resumen, no se trata de izquierda y derecha. Y a los asombrados con la izquierda anticientífica, no les vendría mal un repaso a los orígenes de la relación entre política progresista y pseudociencia New Age: se llamaba movimiento hippie, y no es un fenómeno precisamente novedoso.

En realidad es algo mucho más sencillo: tanto en diestros como en zurdos, se trata simplemente de quienes aceptan la ciencia, y quienes no. Así de simple. Quienes nunca la aceptarán son aquellos que no tienen sus ideologías solo para consumo propio, sino que viven con la aspiración de imponerlas a quienes piensan de otro modo. Estos, los de mentalidad autoritaria, siempre pervertirán la ciencia para sus propios intereses, sean de izquierdas o de derechas.

Termino con la idea que dejé colgada más arriba, porque es lo esencial de todo este discurso. En el siglo pasado hice un máster sobre sociología de la ciencia, y como trabajo final analicé dos casos de ficción literaria sobre la ciencia y la tecnología pervertidas al servicio de sistemas ideológicos: Un mundo feliz, de Aldous Huxley, y 1984, de George Orwell. Ambos autores imaginaban sociedades futuras donde la ciencia y la tecnología evidentemente habían progresado, pero cuyos mandatarios las aplicaban a su propia concepción del progreso social. Que obviamente, no lo era en realidad.

Esta, creo, es la raíz del tópico que erróneamente asocia ciencia e izquierda política: confundir progreso con progresismo. O ciencia con ideología.

Campeones y princesas: ¿los desigualamos desde pequeñitos?

¿Educamos igual a nuestros hijos que a nuestras hijas? Sí, contestaría probablemente la mayoría de los padres y madres actuales, preocupados porque todos sus hijos tengan las mismas oportunidades en la vida. O al menos, asegurarían de buena fe estar haciendo todo lo posible según su mejor saber y entender.

Imagen de dominio público.

Imagen de dominio público.

Personalmente no puedo aplicarme este dilema, porque solo tengo niños. Pero como observador, cualquiera como yo puede notar cómo existen pequeños tics que continuamente marcan una diferencia de trato de los adultos hacia los niños y las niñas. Hay infinidad de ejemplos, desde el típico “los niños no lloran” hasta los juguetes que les regalamos a unos y a otras, sin tener en cuenta que tal vez a ese niño le gusten los peluches y esa niña prefiera los superhéroes. Un ejemplo clásico es el que menciono en el título: campeón y princesa, pero no campeona ni príncipe.

Nunca he llamado “campeón” a ninguno de mis hijos, pero no por escrúpulos de sexismo, sino simplemente porque es una palabra que no suele acudirme de forma natural; imagino que por sus implicaciones deportivas, más que por su origen militar. Tanto niños como niñas tienen perfecto derecho a sentirse lo que les dé la gana; pero ¿por qué tenemos los adultos que repartirlos en categorías ya desde pequeñitos?

Si tuviera solo niñas en lugar de niños, apostaría a que no sería tan frecuente que en el trato casual con desconocidos les espetaran a mis hijos esa típica pregunta formulada con la respetable intención de romper el hielo: “¿y tú de qué equipo eres?”. Los niños suelen callar, porque a esas edades se sienten avergonzados si no pueden responder satisfactoriamente a la pregunta de un adulto; y entonces tengo que salir rápidamente al paso para aclarar que nosotros no somos futboleros.

Cuál puede ser el impacto real de estas pequeñas diferencias en la educación, es difícil saberlo, incluso para los expertos; si traigo hoy este asunto es a causa de un interesante estudio que ha constatado la existencia de esos tics diferenciadores, pero cuyos autores reconocen: “Debemos investigar más para tratar de entender si estas diferencias sutiles pueden tener efectos importantes a largo plazo”.

Los investigadores, de la Universidad Emory (EEUU), diseñaron un ingenioso experimento para estudiar la interacción real de los padres (en este caso, solo con p) con sus hijos e hijas, evitando los típicos tests de preguntas y respuestas que no necesariamente reflejarían la realidad.

Para ello, reclutaron a un grupo de 52 voluntarios, padres de 30 niñas y 22 niños de entre uno y tres años, y los equiparon con una grabadora que se activaba periódicamente para registrar los diálogos entre ellos y sus hijos e hijas. Una vez obtenidos los datos, clasificaron las conversaciones en función de las palabras empleadas por los padres, según categorías establecidas. Por último, sometieron a los padres a un ensayo de Imagen por Resonancia Magnética Funcional (IRMf), un aparato que permite medir la actividad neuronal en distintas regiones del cerebro cuando el sujeto realiza una tarea; en este caso, mirar imágenes de adultos o niños desconocidos, o de sus propios hijos o hijas con distintas expresiones faciales.

Los resultados, publicados en la revista Behavioral Neuroscience, se resumen en el título del estudio: “El género del niño [en inglés, la palabra child es neutra] influye en el comportamiento, el lenguaje y la función cerebral del padre”. En concreto, los investigadores descubrieron que los padres estaban más atentos a las emociones de sus hijas que de sus hijos, respondiendo en mayor grado a sus llantos y cantándoles más. Con las niñas empleaban más palabras emocionales, como cry (llorar), tears (lágrimas) o lonely (solitario/a), y relacionadas con el cuerpo, como belly (tripa), cheek (moflete o mejilla), face (cara), fat (gordo/a) o feet (pies).

Por el contrario, con los niños se empleaban más palabras relacionadas con poder y logros, como best (mejor, el mejor), win (ganar, victoria), super o top, y los padres jugaban más con ellos al tipo de actividad física que en inglés llaman rough-and-tumble play; imagino que existirá una traducción técnica que ignoro, que me perdonen los expertos, pero es el clásico juego de hacer el bestia: perseguirse, tirarse por el suelo, pelearse en broma…

Por último, en el experimento de IRMf, las áreas del cerebro relacionadas con el procesamiento emocional se activaban más con las expresiones felices de las hijas y, curiosamente, con las expresiones neutras de los hijos.

En resumen: sí, las diferencias de trato son sutiles, pero comunes; algo que ya han revelado antes muchos otros estudios citados por los autores, pero que en este caso se analiza con una metodología más rigurosa.

Insisto en que los propios autores del estudio no aventuran conclusiones sobre cuáles pueden ser las consecuencias en la educación de los niños; esto es ciencia, no ideología. Pero sí mencionan el conocimiento actual sobre cómo unas actitudes y otras influyen en el desarrollo de distintas capacidades en los niños: el lenguaje emocional se asocia a la educación en la empatía, el juego físico se relaciona con la interacción social, y la atención al cuerpo se revela después en la definición y valoración de la propia imagen corporal. Si hay algo que debemos tener siempre presente, es que la mente de los niños es material muy delicado.

La historia humana se complica: a cambiar los libros de texto

Los libros de texto de ciencias deberían imprimirse a lápiz, para que el profesor pudiera indicar a los alumnos qué deberían borrar y qué deberían escribir sobre lo borrado. No, es broma, pero no lo es tanto. Lo cierto es que el conocimiento científico avanza todos los días, a veces matizando o incluso rectificando ideas básicas, y sería de esperar que cada año se revisaran las ediciones de los libros de texto para incluir lo nuevo.

Esto justificaría que los hermanos no puedan heredar los libros y que deban comprarse nuevos cada año. Pero lamentablemente, no parece que sea el caso. Ya conté aquí que al menos un libro de texto de primaria de una de las principales editoriales, aunque imagino que ocurrirá lo mismo con otros, emplea una clasificación de los seres vivos en cinco reinos que está obsoleta desde hace décadas.

Otra de esas ideas básicas es: ¿desde hace cuánto tiempo existe nuestra especie? Cuando yo era estudiante, aprendíamos que el Homo sapiens surgió hace unos 100.000 años en África. Después, nuevos descubrimientos en Etiopía duplicaron la historia de los humanos modernos: 200.000 años. Y cuando ya nos habíamos acostumbrado a esta cifra, se nos cae de nuevo.

Esta semana, dos estudios publicados en Nature (uno y dos) describen nuevos huesos humanos y restos de industria lítica hallados en un enclave conocido desde los años 60, Jebel Irhoud, un afloramiento rocoso unos 100 kilómetros al oeste de Marrakech que antiguamente formaba una cueva. Los huesos incluyen parte de un cráneo con ciertos rasgos arcaicos, como la forma de la caja encefálica, pero cuyos rostro y dientes son inequívocamente Homo sapiens.

Reconstrucción del cráneo de Homo sapiens de 300.000 años de edad hallado en Jebel Irhoud (Marruecos). Imagen de Philipp Gunz / MPI EVA.

Reconstrucción del cráneo de Homo sapiens de 300.000 años de edad hallado en Jebel Irhoud (Marruecos). Imagen de Philipp Gunz / MPI EVA.

La clave de los resultados está en la datación de los restos. La nuevas tecnologías de fechado por métodos físicos avanzados están permitiendo datar muestras allí donde la cronología de los estratos del terreno no es una referencia fiable. Hace unas semanas conté aquí cómo estas técnicas han revelado que el Homo naledi, una especie hallada en Suráfrica, vivió hasta hace algo más de 200.000 años, y que este posible solapamiento histórico de una especie humana primitiva con los sapiens en África era hasta entonces algo totalmente inesperado.

Ahora parece confirmarse que los sapiens y los naledi coincidieron en África: según las técnicas de datación utilizadas por los investigadores, los restos de Jebel Irhoud tienen una antigüedad de unos 300.000 años. Esta es la nueva cifra que desde ahora deberemos citar sobre la edad de nuestra especie.

Pero sus implicaciones van mucho más allá: no solo tendremos que acostumbrarnos a la nueva idea de que nuestros ancestros sapiens compartían el continente africano al menos con otra especie humana más, si no con varias; además, los restos de Marruecos, los más antiguos de Homo sapiens conocidos ahora, están muy lejos de África Oriental, que se consideraba la cuna de la humanidad. ¿Qué hacían aquellos sapiens precoces tan lejos de su presunta cuna?

Obviamente, la respuesta es que la idea de la cuna, otro de los pilares clásicos de la paleoantropología, también se tambalea. Según escriben los investigadores, encabezados por el Instituto de Antropología Evolutiva Max Planck de Alemania y el Instituto Nacional de Ciencias de la Arqueología y el Patrimonio de Marruecos, los resultados “muestran que los procesos evolutivos detrás de la aparición del Homo sapiens implicaron a todo el continente africano”. “Estos datos sugieren un origen a mayor escala, potencialmente panafricano”, concluyen.

Y eso, si es que nuestro origen africano no acaba también cayéndose. Hoy está generalmente aceptado que el Homo sapiens surgió en África (a diferencia del neandertal, de origen europeo), y nadie podrá defender algo diferente con pruebas en la mano mientras no se hallen claros restos de nuestra especie anteriores a los 300.000 años de antigüedad fuera de aquel continente.

Pero otra cosa es que sus ancestros también fueran africanos. Hasta ahora se asumía que era así; al menos hasta que el mes pasado dos controvertidos estudios (uno y dos) afirmaran que el hominino más antiguo conocido hasta hoy (los homininos incluyen a los humanos y sus parientes antiguos más próximos que no eran simios) es una especie llamada Graecopithecus freybergi, de más de siete millones de años de antigüedad y hallada en un lugar tan inesperado como Grecia.

En resumen, y si añadimos otros estudios que he comentado recientemente aquí, como el que atribuye al hobbit de Flores un origen africano y el que ha empujado la edad de los primeros restos humanos en América desde los 24.000 años a los 130.000, este está siendo un año especialmente intenso para la paleoantropología, con descubrimientos que están resquebrajando algunos de los muros que hasta ahora sostenían el edificio de la evolución humana.

Hace tiempo, un eminente genetista evolutivo se me quejaba de la aparente tendencia que tenemos los periodistas de ciencia a caer en ese tópico de “esto obligará a reescribir…”. Pero qué le vamos a hacer: con cierta frecuencia, en ciencia hay que demoler lo resquebrajado para construir algo nuevo. Podemos llamarlo reconstruir, reconfigurar, reformular, o todos los res que a uno se le puedan ocurrir, pero en el fondo no dejan de ser lo mismo: reescribir. Y por eso, la ciencia hay que escribirla a lápiz.

Este es el gran error de Blade Runner (¿lo arreglarán en la secuela?)

Fui uno de los adoradores de Blade Runner desde el principio. He leído que inicialmente recibió críticas agridulces, y que su estreno no fue un bombazo en la taquilla, y que muchos se sumaron a los elogios después, cuando el fenómeno creció. Pero no presumo de ninguna cualidad como crítico de cine; simplemente, la vi por primera vez allá cuando solo tenía 15 años cumplidos, y entonces era muy raro encontrar una película de Hollywood tan definida por un espíritu y una estética de lo que por entonces llamábamos afterpunk (hoy postpunk). Era natural que muchos la convirtiéramos en un símbolo con el que decorar la carpeta y las paredes de nuestra habitación.

Pero unos años más tarde, cuando empecé a estudiar ciencias, descubrí que gran parte del peso de la trama de Blade Runner se asentaba sobre una premisa científicamente absurda. Les explico.

Imagen de Warner Bros.

Imagen de Warner Bros.

Tanto la película como la novela original de Philip K. Dick (¿Sueñan los androides con ovejas eléctricas?) se basan en la existencia de humanos sintéticos, en el libro llamados simplemente androides. Según se cuenta, a Ridley Scott este término le parecía demasiado estereotipado. Uno de los dos guionistas preguntó a su hija, que estudiaba biología, y ella sugirió el nombre replicante, inspirado por la replicación de ADN cuando una célula se divide.

Ni en el libro ni en la película se explica claramente cómo se producen los androides/replicantes, pero queda claro que son de carne y hueso, indistinguibles de los humanos normales excepto por unos pocos rasgos: carecen de empatía, tienen habilidades especiales (agilidad, fuerza) y una longevidad de cuatro años. Sobre esto último hay una pequeña contradicción, ya que en la película se presentan dos ideas contrapuestas: en un momento se dice que la caducidad fue impuesta para evitar que llegaran a desarrollar capacidad emocional, mientras que en otro se cuenta que la corta vida de los replicantes es una limitación tecnológica a la que no se ha encontrado solución. Algo que, a su vez, no cuadra con el hecho de que Rachael fuera una replicante sin caducidad.

Pero vayamos a lo importante: la identificación de los replicantes. En el libro y la película, los blade runners recurren a una especie de polígrafo, un alambicado test psico-fisiológico llamado Voight-Kampff que revela si el sujeto muestra emociones o no.

En 1968, cuando Dick publicó la novela, el polígrafo era una técnica muy de actualidad, e incluso en EEUU ya había programas de televisión basados en su uso, como el que décadas después haría en España el periodista Julián Lago con aquella famosa frase: “no me conteste ahora, hágalo después de la publicidad”. Gran parte de la trama de Blade Runner se asienta en el hecho de que el Voight-Kampff es un análisis largo, complicado y que requiere la colaboración del sujeto, lo que sustenta la tensión sobre la condición de replicante de Rachael y deja en duda la identidad del propio Deckard, una incógnita que ha sido motivo de discusión durante años.

La máquina del test Voight-Kampff. Imagen de Warner Bros.

La máquina del test Voight-Kampff. Imagen de Warner Bros.

Ahora, vayamos a la realidad. En 1968 la tecnología de ADN aún estaba naciendo. Por entonces no era generalmente conocida, y todavía era difícil prever sus futuras aplicaciones. Pero a comienzos de los 80, cuando se escribió el guión de la película, ya se había secuenciado el primer genoma completo, el del virus bacteriófago φX174, y la biología molecular era una tecnología en plena expansión.

En aquella época ya se sabía que una especie puede identificarse por su secuencia genética. Con los años esto ha llevado a la localización de fragmentos del genoma que sirven como un código de barras genético, con el que puede determinarse la especie a la que pertenece un organismo. Además, la evolución de la tecnología de lectura de ADN ha conducido a la fabricación de máquinas de secuenciación y amplificación cada vez más baratas, rápidas y pequeñas, casi portátiles.

Por otra parte, el progreso de la biología molecular no solo ha permitido modificar genomas a voluntad (como en los organismos transgénicos), sino también crear genomas artificiales de especies simples como bacterias. En ambos casos se marcan estos organismos introduciendo en sus genes unos fragmentos de ADN que actúan como códigos de barras sintéticos, y que pueden tomar la forma que uno desee: se puede codificar en ellos un mensaje, un nombre, un número de serie o cualquier otro tipo de marcaje. Los cultivos transgénicos llevan este tipo de marcas de identificación.

El absurdo es que la humanidad futura de Blade Runner ha alcanzado un nivel de desarrollo que les permite crear o manipular genomas para fabricar personas de carne y hueso con ciertas características finamente alteradas a voluntad; y sin embargo, no parece que nadie haya pensado en introducirles marcadores genéticos para poder identificarlos rápidamente con un sencillo test de ADN, algo que existe en la realidad desde el nacimiento de la edición y la manipulación genética.

De hecho, la idea de la marca física de fábrica sí está presente en la película, aunque no en formato genético. Cuando Deckard encuentra la escama de una serpiente sintética, descubre con un examen microscópico una identificación del fabricante que le llevará hasta el local de strip-tease donde trabaja la replicante Zhora. ¿Por qué una serpiente artificial lleva una marca de fábrica y los replicantes no, sobre todo teniendo en cuenta la vigilancia estricta a la que se les somete?

Pero ya entonces el marcaje genético era una posibilidad evidente, y era fácil imaginar que en una situación real sería un requisito en la creación de cualquier organismo genéticamente alterado. La identificación de los replicantes mediante el test de Voight-Kampff, en lugar de una prueba genética, ya era una idea claramente anacrónica en 1982. Habría bastado con arrancarles un pelo o tomarles una muestra del epitelio bucal con un bastoncillo.

Es más: incluso suponiendo que los fabricantes de replicantes decidieran por cualquier motivo no introducir marcas genéticas específicas en sus diseños, las propias técnicas de edición o síntesis genómica dejan ciertos rastros genéticos que también pueden detectarse, como secuencias bacterianas que actúan como dianas de corte o que están presentes en genes de resistencia a antibióticos. Bastaría un simple análisis rutinario con una máquina llamada PCR para detectar de inmediato a un replicante.

Ahora la pregunta es: ¿habrán pensado en esto los responsables del guión de Blade Runner 2049, la secuela que se estrenará el próximo octubre?

Como escribí aquí hace unos días a propósito de la película Sunshine, la ficción es ficción, y no debe descalificarse solo por sus errores científicos si todo lo demás funciona. Pero la ciencia ficción, si pretende llamarse así, debe actualizarse al estado del conocimiento científico y de las posibilidades tecnológicas de su época.

Hoy cada vez es más habitual, ya casi imprescindible, que cualquier producción seria de ciencia ficción busque la asesoría de científicos expertos. Sin embargo, como ya dejé protestado aquí, suele contarse con físicos e ingenieros, pero no con biólogos; como si hubiera que preocuparse por respetar todo eso de la gravedad, la relatividad y los agujeros negros, y en cambio cualquier ocurrencia que a uno se le antoje sobre las cosas vivas pudiera ser plausible (que, en la mayoría de los casos, no lo es).

En octubre les contaré si los guionistas han estado a la altura, porque un Blade Runner 2049 escrito hoy y que mantenga el test de Voight-Kampff (en el tráiler, al menos, no aparece) no sería retrofuturista; sería como continuar retratando a los tiranosaurios como se creía que eran hace 50 años.

Una sonda de la NASA volará a través de la atmósfera del Sol

Sunshine, de Danny Boyle, es una de las películas de ciencia ficción más interesantes que he podido ver en lo que llevamos de siglo. Según parece, sus resultados en taquilla fueron más bien discretos, algo que no me corresponde analizar a mí sino a mis compañeros Carles y Juan Carlos.

Por lo que compete a este blog, puedo decir que Boyle y Alex Garland, autor de la historia, hicieron un trabajo concienzudo basándose en una asesoría científica amplia y experta, con participación de la NASA y del físico británico y estrella mediática Brian Cox, e incluso montando a los actores en vuelos de simulación de microgravedad. Y si no todo en la película es científicamente realista, no se trata de errores, sino de licencias creativas que se tomaron siendo plenamente conscientes de que se estaban apartando de la ciencia rigurosa.

Ilustración de la Parker Solar Probe. Imagen de NASA.

Ilustración de la Parker Solar Probe. Imagen de NASA.

Sí, hubo científicos que escribieron criticando negativamente la película. A quienes nos dedicamos a esto nos gusta desentrañar cuánto hay de ciencia real y cuánto de vengayá en las películas del género. Pero una cosa es aprovechar estas licencias argumentales como herramienta de divulgación, y otra basarse en ellas para descalificar una película como si se hubiera cometido una especie de afrenta. Toda época ha tenido sus inquisidores.

Toda peli de ciencia ficción encuentra su eficacia sabiendo hasta dónde estirar la ciencia; y si hay que romperla para ir un poco más allá porque la historia lo pide, pues se rompe y no pasa nada: la ciencia no es una religión, y la ficción es ficción porque es ficción. Incluso una joya tan elogiada como 2001: Una odisea del espacio se basa en una idea hoy indefendible por criterios científicos, la existencia de inteligencias extraterrestres casi supremas, ese rollo que en Prometheus llamaban “los ingenieros”. Y qué decir de toda película basada en los viajes en el tiempo.

Para quienes no la hayan visto, les resumo el argumento de Sunshine en una frase y sin spoilers: el Sol se está apagando debido a un accidente natural que en la película no se menciona, pero que sí se explica científicamente en el guión original (para los curiosos, una colisión con una Q-ball), y una nave tripulada debe viajar hasta allí para reactivarlo mediante una megaexplosión nuclear, después del fracaso de una misión anterior que desapareció sin dejar rastro.

El acierto de Sunshine, en mi opinión, está en desarrollar la quiebra psicológica de los personajes amenazados por un monstruo tan poderoso como inusual: el Sol, normalmente un elemento benéfico e imprescindible para la vida. Darle al Sol el papel del malo es un hallazgo comparable al de poner al asesino en el cuerpo de un niño; ignoro a quién se le ocurrió esto por primera vez, pero Chicho Ibáñez Serrador lo hizo magistralmente en Quién puede matar a un niño. Una película que, por cierto, también exploraba sabiamente el terror a pleno sol. En Sunshine los personajes se defienden contra un enemigo que puede liquidarlos o enloquecerlos hasta que se liquiden unos a otros, y al que jamás podrán matar ni vencer.

Comparación a escala del tamaño aparente del Sol desde la Tierra (derecha) y desde la órbita de la Parker Solar Probe (izquierda). Imagen de Wikipedia.

Comparación a escala del tamaño aparente del Sol desde la Tierra (derecha) y desde la órbita de la Parker Solar Probe (izquierda). Imagen de Wikipedia.

Me ha venido el recuerdo de Sunshine con ocasión de una rueda de prensa celebrada esta semana en la que la NASA ha presentado una misión que lanzará en 2018, y que se acercará al Sol como jamás lo ha hecho antes ningún artefacto de fabricación humana. Faltando el elemento humano, la Parker Solar Probe (bautizada en homenaje al astrofísico Eugene Parker, descubridor del viento solar y que, en contra de la costumbre en estos casos, aún vive) enfrentará sus circuitos a los mismos peligros que amenazaban a la tripulación del Icarus II en la película.

Parker se acercará a unos seis millones de kilómetros del Sol. Puede que esto no parezca demasiado si consideramos que nuestra estrella tiene un diámetro de 1,4 millones de kilómetros, pero la cosa cambia si tenemos en cuenta que Mercurio se encuentra a 58 millones de kilómetros del Sol, casi diez veces más lejos de lo que la sonda se aproximará. De hecho, Parker volará atravesando la corona, la parte exterior de la atmósfera solar. El gráfico de la derecha muestra el tamaño aparente del Sol desde la Tierra, comparado con el que verá la sonda.

Trayectoria orbital prevista para la Parker Solar Probe. Imagen de NASA.

Trayectoria orbital prevista para la Parker Solar Probe. Imagen de NASA.

Para soportar una temperatura de 1.377 ºC, con una intensidad solar 520 veces superior a la que existe en la Tierra, Parker esconderá sus instrumentos detrás de una sombrilla de 11,5 centímetros de grosor fabricada con carbono reforzado con fibra de carbono, el mismo material que protegía a los shuttles de la NASA durante la reentrada en la atmósfera. Eso sí, energía solar no le faltará.

La misión se lanzará el 31 de julio de 2018, pero durante seis años se dedicará a sobrevolar Venus. Deberemos esperar hasta el 19 de diciembre de 2024 para su primera aproximación al Sol. Parker conseguirá además otro récord, el del objeto de fabricación humana más rápido de la historia: durante su recorrido alrededor del Sol, su velocidad alcanzará los 700.000 km/h.