BLOGS
Ciencias mixtas Ciencias mixtas

Los secretos de las ciencias para
los que también son de letras

Archivo de la categoría ‘Ciencia’

¿Es posible dispararse uno mismo en el pecho con un arma de caza?

La idea de una persona disparándose en el pecho con una escopeta o un rifle puede encajar casi en cualquier posición entre lo lógico y lo absurdo, según como cada cual quiera planteárselo. Imagino que lo hemos visto muchas veces en el cine, lo cual no es en absoluto una garantía de que pueda corresponder a una situación real. Pero entre la duda natural, y los esfuerzos que últimamente hace la actualidad por convertir en real lo impensable, es esperable que circulen las verdades alternativas.

Así que, donde muchos suelen invocar el imperio de la ley, algunos estamos aquí para invocar el imperio de la ciencia, que a diferencia del primero no viene arbitrariamente impuesto. Alguien tiene que actuar como simple pregonero de lo que la ciencia tiene que decir al respecto, siempre que la ciencia tenga algo que decir al respecto.

Miguel Blesa. Imagen de 20Minutos.es.

Miguel Blesa. Imagen de 20Minutos.es.

Y la ciencia ya lo ha dicho, hablando por boca de los científicos forenses, que son quienes en este caso tienen la experiencia y el conocimiento necesarios para llegar a una conclusión razonable amparada en las pruebas. La autopsia confirma que Miguel Blesa se suicidó, y punto. Ante este dictamen no cabe nada más que añadir.

Pese a todo, parece que no basta. Un ligero vistazo a Twitter y a los comentarios en las noticias de los medios descubre una avalancha de opiniones anónimas sosteniendo que los brazos son demasiado cortos para poder apretar el gatillo sujetando una escopeta o un rifle en el sentido contrario a su uso normal, es decir, con el cañón hacia el pecho.

Debo aclarar que por supuesto no soy un experto en ciencia forense, y que por añadidura no tengo la menor idea sobre el mundo de las armas de fuego. Pero creo que sí soy experto en dos cosas: una, en manejar documentación científica. Y dos, en hacerme preguntas y buscar fuentes autorizadas para responderlas. Así que animo a quien quiera verter conjeturas a que antes se decida a hacer esto mismo que he hecho yo. De verdad, incluso con el calor del verano, poner las neuronas a funcionar siempre es un ejercicio interesante que no enseñan en el gimnasio.

Lo primero que me viene a la mente tras leer sobre la muerte de Blesa es un nombre: Ernest Hemingway. Tratándose de uno de mis autores favoritos, de inmediato recuerdo que murió en su casa de Idaho por un disparo con una de sus escopetas. En un primer momento el suceso se hizo pasar por un accidente de caza, pero pronto quedó aclarado que se descerrajó el tiro voluntariamente. Hemingway padecía hemocromatosis, una rara enfermedad que se ha relacionado con diversos suicidios en su familia. En sus últimos tiempos, la cabeza ya no le regía bien.

Pero Hemingway se disparó en la cabeza, no en el pecho. Así, lo segundo que hago es telefonear a un amigo cazador. Le encuentro en su retiro vacacional, y apenas se ha enterado de lo de Blesa. A mi pregunta de si es posible dispararse a uno mismo en el pecho con una escopeta o un rifle, me regala una larga y profusa explicación sobre los tipos de armas, la longitud de los cañones, la sensibilidad de los gatillos y las posturas de disparo. Pero cuando le pido el monosílabo que necesito como conclusión, es un sí; sí, es perfectamente posible dispararse a uno mismo en el pecho con un arma de caza utilizando solo los dedos de las manos, sin ayudarse con un palo o con los pies. Aunque, añade, no todas las personas podrían hacerlo con todas las armas.

Lo siguiente que hago es bajar al sótano y simular mi propio suicidio. A falta de escopeta, bien viene una escoba. Compruebo que obviamente el gatillo quedaría más accesible si uno se dispara en la frente que en el pecho, pero también que todo es cuestión del ángulo de disparo. El ángulo de 90 grados es el que obliga a estirar más los brazos, pero reduciendo el ángulo en cualquier de los dos sentidos las manos llegan fácilmente a partes más lejanas del palo. Así que, imagino, los forenses de Córdoba habrán dictaminado que la longitud de los brazos de Blesa es compatible con el ángulo de entrada del disparo para que él mismo pudiera apretar el gatillo.

Un rifle de caza del mismo calibre (.270) que el utilizado por Miguel Blesa para suicidarse. Imagen de Wikipedia.

Un rifle de caza del mismo calibre (.270) que el utilizado por Miguel Blesa para suicidarse. Imagen de Wikipedia.

Lo último que hago es recurrir a las publicaciones científicas. Y sí, como era de esperar, hay infinidad de casos descritos de suicidios con escopetas o rifles de caza; de hecho, son las armas de fuego mayoritariamente elegidas para quitarse la vida en algunos países europeos, pero también en Canadá.

Yendo a datos concretos, un estudio de 2014 recopiló 57 suicidios con escopeta en una región de Turquía entre 2000 y 2007. De ellos, 34 fueron por disparos en la cabeza, 9 en el abdomen y 7 en el pecho, un 12,3% de los casos. En otro estudio de 2016 en Minnesota (EEUU), los disparos en el pecho sumaban el 21,5% de los casos de suicidios con escopeta. Curiosamente, en otro estudio recopilatorio en Estambul, casi la mitad de las mujeres que se disparaban con escopetas lo hacían en el abdomen, a pesar de tener generalmente los brazos más cortos que los hombres.

Por los datos de los expertos, parece claro que los suicidas suelen elegir dispararse en la cabeza; otro estudio publicado por forenses indios en 2015 dice: “Las heridas en los casos de suicidios por arma de fuego son generalmente en la región de la cabeza. Cuando se encuentra una herida en otro lugar, se levanta una ceja de sospecha”. Pero precisamente el motivo de este último estudio era el caso de un hombre muerto por un disparo de escopeta en el pecho y sobre el que existían sospechas de homicidio.

Con los datos recogidos en la escena del crimen y el resultado de la autopsia, los forenses concluyen que se trataba de un suicidio. El suicida había apoyado la culata del arma en el suelo y se había inclinado sobre ella para alcanzar el gatillo con la mano derecha, lo que había resultado en una trayectoria del disparo de derecha a izquierda y hacia abajo, es decir, desde la parte alta del pecho hacia la parte baja. Este último dato era el que había despistado inicialmente a los forenses, pero de hecho el estudio de Minnesota descubría que casi el 65% de los autodisparos con escopeta en el pecho estaban dirigidos hacia abajo.

Pero la mayor enseñanza que puede extraerse de dedicar un rato a escuchar lo que dicen los expertos es que emitir opiniones infundadas solo lleva a aumentar la confusión improductiva: entre los casos descritos de suicidios con rifles o escopetas se encuentran algunos muy rocambolescos, que cualquiera a primera vista creería imposibles. Un hombre en Turquía se suicidó con un disparo de escopeta por la espalda a 1,4 metros de distancia; ató el arma a un árbol y accionó el gatillo con una cuerda. Hay varios casos descritos en que, sí, por increíble que parezca, una persona se ha disparado a sí misma más de una vez. En un caso en Australia, un hombre se disparó tres veces con una escopeta. Otro suicida se disparó dos veces sucesivas con dos armas distintas.

Naturalmente, también hay casos en los que se intenta hacer pasar por suicidio lo que en realidad es un homicidio. En un caso en Sri Lanka, los forenses dictaminaron que las características de la herida de un hombre eran incompatibles con la posibilidad de que sus propios brazos de 65 centímetros hubieran podido dispararse a sí mismo un arma cuya longitud desde el extremo del cañón hasta el gatillo era de 79 centímetros.

Pero la ciencia forense no se deja engañar fácilmente; hoy incluso existen análisis estadísticos que permiten a los patólogos calcular la probabilidad de homicidio o suicidio a través del estudio de las heridas. La ciencia no es infalible, pero es lo más parecido que tenemos al mundo real. Claro que todo ser humano es libre para elegir si prefiere vivir en el mundo real o en su mundo imaginario favorito.

No, los estudios científicos no dicen lo que quiere quien los paga

Esta semana, en un programa de radio, una periodista daba el boletín de noticias, en el que comentaba un nuevo estudio según el cual el consumo de café se relaciona con un menor riesgo de muerte prematura. No vengo hoy a comentar este estudio; en realidad eran dos, aquí y aquí, muy amplios y documentados, pero con la eterna objeción de la epidemiología: correlación no significa causalidad.

Mi objetivo hoy es otro. Mientras la periodista contaba la noticia, de pronto entraba improvisadamente y sin invitación la voz de otra persona, también periodista, pero que estaba allí presente para participar en la tertulia posterior. Este periodista decía que había que mirar quién pagaba el estudio, porque los estudios científicos “dicen lo que quiere quien los paga”.

Revistas científicas. Imagen de Wikipedia.

Revistas científicas. Imagen de Wikipedia.

El error es garrafal, monumental, astronómico. Y a pesar de eso, realmente lo de menos es el nombre del periodista. Si lo omito no es por corporativismo; los lectores de este blog sabrán que uno de los argumentos que suelo traer aquí es la mala visibilidad de la ciencia en la prensa de este país, y la escasa implicación de muchos de los medios generalistas en la información científica elaborada (repito, elaborada, no fusilada de agencias) por verdaderos especialistas al mismo nivel que la información cubierta en otras áreas como política, economía, deportes o cultura.

Pero en este caso, y tal vez sin que él mismo fuera consciente de ello, este periodista no estaba actuando como analista de nada, sino como público en general; no quiero aplicarle ese término de parentesco político que tanto se emplea ahora con fines peyorativos. Y aunque un periodista se responsabiliza de sus palabras con su firma, es evidente que se trataba de un comentario casual al margen sobre algo que ignora profundamente, y no de una declaración de opinión.

Lo cual no le quita importancia al error: precisamente el motivo de que sea enormemente preocupante es la medida en que el comentario puede representar a un amplio sector de población que ignora cómo funciona la ciencia, y que puede dejarse seducir por argumentos de este tipo. Y los argumentos de este tipo están en la raíz de las posturas anticiencia, del movimiento anti-Ilustración y del camino hacia lo que ahora recibe tantos nombres: muerte de los expertos, postverdad, relativismo… En fin, llamémoslo pseudociencias.

Así que creo que esta es una buena ocasión para explicar cómo funciona la ciencia a quienes hasta ahora no lo sabían. Y conviene empezar explicando qué es lo que yace en los cimientos de todo el conocimiento científico. Se trata de una palabra mágica:

Publicación.

Pongámoslo así: probablemente un estudio científico sea lo más difícil de publicar que existe hoy en el mundo. Algunos de ustedes pensarán que es muy complicado publicar una novela, y que estoy minimizando este problema porque, como figura en el recuadro de la derecha, hay una editorial que publica las mías. Pero lo cierto es que hoy en día una novela puede autopublicarse en internet y conseguir miles de lectores; hay innumerables ejemplos de ello.

En cambio, uno no puede autopublicarse un estudio científico. Para que un estudio científico se considere publicado no basta con colgarlo en internet o pegarlo con celo a una farola. Tiene que ser admitido para su publicación, y eso requiere atravesar la puerta grande de la academia custodiada por un fiero guardián llamado…

Revisión por pares.

¿Qué es la revisión por pares? No, no es que un par de editores con algo de conocimiento sobre el tema en cuestión lo revise para comprobar que el corrector automático no ha cambiado “el Kremlin” por “el Cremilla”, como en aquel famoso artículo de La Vanguardia. Es un proceso extremadamente concienzudo y riguroso que puede llevar meses, o un año, o más; al menos en mi época, los años 90, cuando los estudios aún se enviaban en papel y por correo. El formato digital ha reducido algo los plazos de espera, pero no los del trabajo, que sigue siendo el mismo.

Así es como funciona: un equipo de investigadores dedica meses o años a un estudio, a lo que una vez completado el trabajo se suman semanas o meses para detallarlo por escrito según los formatos estándar requeridos por las revistas. Para ello hay que elegir la revista en la que se intentará publicar, una elección de los propios investigadores que se basa en factores como la novedad de los resultados, la solidez de los datos y el impacto de las conclusiones.

Una vez enviado el estudio a la revista, el equipo editorial decide si lo canaliza para su revisión, o si directamente lo rechaza. En mi experiencia, lo segundo es lo más común. En ese caso, vuelta a empezar: los autores deben entonces elegir otra revista, tal vez de menor nivel o más sectorial, y volver a comenzar el proceso. No es raro que un estudio resulte rechazado por los editores dos, tres o cuatro veces antes de que alguna revista acepte darle una oportunidad e ingresarlo en el proceso de revisión por pares.

Los pares en cuestión, llamados reviewers o referees, no forman parte del equipo de la revista. Como indica el término, son iguales, investigadores en activo, científicos reputados con experiencia en el área del estudio, pero se supone que no son colaboradores ni competidores directos de los autores. Son, por tanto, completamente independientes. Un trabajo se envía como mínimo a dos referees, pero pueden ser hasta cuatro o cinco, y sus nombres permanecerán ocultos para los autores.

El proceso de revisión es un durísimo y despiadado destrozo del trabajo de los investigadores, de cabo a rabo. Algunos referees puntillosos pueden sugerir algún cambio en el estilo de redacción, pero el proceso de revisión está enfocado a diseccionar, destripar y despiezar el estudio, desde la concepción y el diseño experimental, pasando por los materiales y métodos utilizados, la ejecución de los experimentos y los resultados, hasta su análisis, presentación, conclusiones y discusión, y si todo ello es lo bastante transparente y está lo suficientemente detallado y documentado como para que otros investigadores puedan repetir los mismos experimentos.

Comprenderán que el resultado de todo este proceso suele ser en muchos casos un pulgar hacia abajo. Es frecuente que el veredicto de los referees sea tan negativo que desaconsejen a la revista la publicación del trabajo. Y entonces, vuelta a la casilla de salida.

Por fin, en algún momento de albricias, de repente el juicio de los referees concede la remota posibilidad de que el trabajo llegue algún día a ver la luz, si bien no antes de unos pequeños cambios. Pero estos pequeños cambios no consisten en sustituir un “sin embargo” por un “no obstante”, sino que generalmente requieren hacer nuevos experimentos. Y esto ya no es volver a la casilla de salida, sino sacar la carta de la cárcel. Nuevos experimentos implican guardar el estudio en el cajón durante semanas, tal vez meses, para después sacarlo del cajón y tirarlo a la papelera con el fin de incluir los nuevos resultados.

Si todo va bien y los nuevos experimentos confirman las conclusiones, al menos ya no estamos en la casilla de salida. Pero el trabajo debe volver a pasar una vez más por los referees. Se supone que, satisfechas ya sus exigencias, deberían finalmente aprobar el estudio para su publicación. Pero no hay garantías, y no es algo inédito que a las antiguas objeciones se superpongan ahora otras nuevas que al referee se le han ocurrido a propósito de los últimos resultados.

Eventualmente, por fin el trabajo llega algún día a publicarse. Para entonces, desde que los investigadores tuvieron la idea de emprender aquel estudio, los becarios ya han terminado la tesis y se han marchado a otros laboratorios. Algunos de los investigadores han tenido hijos. Alguno ha muerto. No es frecuente, pero sí esporádico, que en la lista de los autores alguno de ellos lleve junto a su nombre una llamada que a pie de página aclara: “deceased”.

A propósito de la lista de autores, conviene también explicar que todos los nombres van acompañados de llamadas que llevan al pie de la página, donde se enumeran las respectivas filiaciones de los investigadores. Pero además, los estudios detallan qué entidades los han financiado. Y desde hace varios años, es obligatorio también que cada uno de los autores firme una declaración individual en la que exponga sus conflictos de intereses; es decir, si recibe algún tipo de beneficio por parte de alguna entidad que pueda tener intereses en el área del estudio.

Por supuesto, esto no impide que las compañías financien estudios de sus productos, y de hecho todas lo hacen. Pero esto siempre queda especificado en el estudio como un conflicto de interés, y en cualquier caso estos trabajos deben pasar por todo el proceso anterior de evaluación independiente si aspiran a ser verdaderas publicaciones científicas, y no artículos en el boletín mensual de la empresa.

Naturalmente, como todo sistema, el de la ciencia también tiene sus defectos. Y como en todo colectivo humano, siempre hay ovejas negras. Hay ejemplos a gran escala, como los complots de las tabaqueras y de las azucareras para ocultar los perjuicios de sus productos, y a pequeña, como el de Andrew Wakefield, el médico que inventó la relación entre vacunas y autismo para hacer caja con ello, o el de Hwang Woo Suk, el biotecnólogo coreano que falseó un estudio sobre clonación humana. Pero de todo ello el sistema aprende y se perfecciona, del mismo modo que los accidentes de aviación sirven para corregir fallos, sin que los siniestros aéreos logren evitarse por completo.

Afirmar alegremente que los estudios científicos dicen lo que quiere quien los paga no solamente es ignorar todo esto, ni es solamente llamar a los referees idiotas o corruptos. La generalización supone acusar de corrupción a todos los actores del largo y complejo proceso científico; a todo el sistema en su conjunto. No, los estudios científicos no dicen lo que quiere quien los paga. Esos son los artículos periodísticos.

El cómico John Oliver habla sobre las vacunas, y no se lo pierdan

Decía Carl Sagan que en ciencia es frecuente comprobar cómo un científico cambia de parecer y reconoce que estaba equivocado, cuando las pruebas así lo aconsejan. Y que aunque esto no ocurre tanto como debería, ya que los científicos también son humanos y todo humano es resistente a abandonar sus posturas, es algo que nunca vemos ocurrir en la política o la religión.

Imagen de YouTube.

Imagen de YouTube.

Los que tratamos de adherirnos a esta manera de pensar, sea por formación científica o por tendencia innata, que no lo sé, solemos hacerlo con cierta frecuencia. Personalmente, durante años estuve convencido de que la solución a la creencia en las pseudociencias estaba en más educación científica y más divulgación. Hasta que comencé realmente a indagar en lo que los expertos han descubierto sobre esto. Entonces me di cuenta de que mi postura previa era simplista y poco informada, y cambié de parecer.

Resulta que los psicólogos sociales descubren que los creyentes en las pseudociencias son generalmente personas con un nivel educativo y un interés y conocimiento científicos comparables al resto. Resulta que los mensajes públicos basados en las pruebas científicas no solo no descabalgan de sus posturas a los creyentes en las pseudociencias, sino que incluso les hacen clavar más los estribos a su caballo. Resulta que los psicólogos cognitivos y neuropsicólogos estudian el llamado sesgo cognitivo, un mecanismo mental por el cual una persona tiende a ignorar o minimizar toneladas de pruebas en contra de sus creencias, y en cambio recorta y pega en un lugar prominente de su cerebro cualquier mínimo indicio al que pueda agarrarse para darse la razón a sí misma. Es, por ejemplo, la madre de un asesino defendiendo pese a todo que su hijo es inocente, aunque haya confesado.

Pero el sesgo cognitivo no solo actúa a escala personal, sino también corporativa, en el sentido social de la palabra, como identificación y pertenencia a un grupo: parece claro que muchas organizaciones ecologistas jamás de los jamases reconocerán las apabullantes evidencias científicas que no han logrado, y mira que lo han intentado, demostrar ningún efecto perjudicial de los alimentos transgénicos. Lo cual aparta a muchas organizaciones de lo que un día fue una apariencia de credibilidad científica apoyada en estudios. Y tristemente, cuando esa credibilidad científica desaparece, a algunos no nos queda más remedio que apartarnos de esas organizaciones: si niegan los datos en una materia, ¿cómo vamos a creérselos en otras?

El neurocientífico y divulgador Dean Burnett me daba en una ocasión una interesante explicación evolutiva del sesgo cognitivo. Durante la mayor parte de nuestra historia como especie, decía Burnett, aún no habíamos descubierto la ciencia, la experimentación, la deducción, la inducción, la lógica. En su lugar, nos guiábamos por la intuición, la superstición o el pensamiento mágico. Desde el punto de vista de la evolución de nuestro cerebro, apenas estamos estrenando el pensamiento racional, y todavía no acabamos de acostumbrarnos; aún somos niños creyendo en hadas, duendes y unicornios.

Así, la gente en general no piensa como los científicos, me decían otros. No es cuestión de mayor o menor inteligencia, ni es cuestión de mejor o peor educación. De hecho, muchas personas educadas tratan de disfrazar sus sesgos cognitivos (y todos los tenemos) bajo una falsa apariencia de escepticismo racional, cuando lo que hacen en realidad es lo que uno de estos expertos llamaba “pensar como un abogado”, o seleccionar cuidadosamente (en inglés lo llaman cherry-picking) algún dato minoritario, irrelevante o intrascendente, pero que juega a su favor. Un ejemplo es este caso tan típico: “yo no soy [racista/xenófobo/machista/homófobo/negacionista del holocausto/antivacunas/etc.], PERO…”.

Estos casos de sesgos cognitivos disfrazados, proseguían los expertos, son los más peligrosos de cara a la sociedad; primero, porque su apariencia de acercamiento neutral y de escepticismo, de no ceñirse a un criterio formado a priori, es más poderosa a la hora de sembrar la duda entre otras personas menos informadas que una postura fanática sin tapujos.

Segundo e importantísimo, porque el disfraz a veces les permite incluso colarse en la propia comunidad científica. Es el caso cuando unos pocos científicos sostienen un criterio contrario al de la mayoría, y son por ello destacados por los no científicos a quienes no les gustan las pruebas mayoritarias: ocurre con cuestiones como el cambio climático o los transgénicos; cuando hay alguna voz discrepante en la comunidad científica, en muy rarísimas ocasiones, si es que hay alguna, se trata de un genio capaz de ver lo que nadie más ha logrado ver. Es mucho más probable que se trate de un sesgo disfrazado, el del mal científico que no trata de refutar su propia hipótesis, como debe hacerse, sino de demostrarla. Pero hay un caso aún peor, y es el del científico corrupto guiado por motivaciones económicas; este fue el caso de Andrew Wakefield, el que inventó el inexistente vínculo entre vacunas y autismo.

He venido hoy a hablarles de todo esto a propósito del asunto antivacunas que comenté ayer, porque algunas de estas cuestiones y muchas otras más están genialmente tratadas en este vídeo que les traigo. John Oliver es un cómico, actor y showman inglés que presenta el programa Last Week Tonight en la HBO de EEUU. Habitualmente Oliver suele ocuparse de temas políticos, pero de vez en cuando entra en harina científica. Y sin tener una formación específica en ciencia, es un paladín del pensamiento racional y de la prueba, demostrando una lucidez enorme y bastante rara entre las celebrities. Y por si fuera poco, maneja con maestría esas cualidades que solemos atribuir al humor británico.

Por desgracia, el vídeo solo está disponible en inglés, así que deberán conocer el idioma para seguirlo, pero los subtítulos automáticos de YouTube les ayudarán si no tienen el oído muy entrenado. Háganme caso y disfrútenlo: explica maravillosamente la presunta polémica de las vacunas, tiene mucho contenido científico de interés, y además van a reírse.

La anti-vacunación no es una decisión personal, porque puede matar a otros

Me entero por mi vecina de blog Madre Reciente de que el presentador Javier Cárdenas ha defendido públicamente dos argumentos falsos: la falacia inventada con ánimo de lucro de que las vacunas causan autismo, y la conclusión errónea de que los casos de autismo han crecido de forma espectacular en los últimos años (el enlace lleva a la explicación detallada sobre la naturaleza de la falsedad de ambos argumentos). Y compruebo en Google que las palabras de Cárdenas han arrastrado una larga y prolija cola de reacciones y contrarreacciones.

El presentador Javier Cárdenas. Imagen de Wikipedia.

El presentador Javier Cárdenas. Imagen de Wikipedia.

La pregunta es: ¿qué importa lo que diga Cárdenas? No puedo valorar el trabajo de este presentador, ya que no sigo sus programas. En alguna ocasión, esperando el comienzo de alguna película en la 1 de TVE, he visto los últimos minutos de un espacio que hace por las noches y en el cual el presentador y su claque hablaban como muy en serio de psicofonías, apariciones de fantasmas y cosas por el estilo.

Pero más allá de ver a un grupo de profesionales adultos departiendo como una cuadrilla de scouts en torno a un fuego de campamento, con reflexiones en Prime Time como “oye, pues yo creo que algo hay”, esto tampoco es sorprendente, ni siquiera en una televisión que pago con mis impuestos. Que yo sepa, TVE lleva pagando con nuestros impuestos programas de bulos esotéricos desde hace más de 40 años, desde aquellos tiempos del Doctor Jiménez del Oso; quien, por cierto, era un pseudocientífico, pero en mi humilde opinión también un comunicador de enorme talento, que una cosa no quita la otra.

Siendo así, insisto, ¿qué importa lo que diga Cárdenas? Su opinión respecto a las vacunas tiene tanto valor como la de un futbolista, o como la mía respecto a Cárdenas o los futbolistas. ¿Es necesario y pertinente que se le conceda tanto eco mediático, que le respondan públicamente profesionales de la ciencia e instituciones médicas? ¿Acaso todo esto no está aumentando la resonancia del personaje y de sus palabras, y tal vez incluso mejorando sus índices de audiencia para el frotar de manos de más de un directivo de radio y televisión?

La respuesta a esta última pregunta es que probablemente sí. Pero a pesar de todo, y por desgracia, la respuesta a la primera pregunta continúa siendo que lo que diga Cárdenas sí importa.

Importa porque Cárdenas es un tipo conocido con un altavoz que escuchan miles de seguidores. Precisamente acabo de escribir un artículo, aún no publicado, sobre celebrities que defienden proclamas pseudocientíficas. En el país líder de la ciencia mundial, EEUU, la líder mediática nacional es una señora que continuamente presta su espacio, sin ningún tipo de rigor ni filtro, a una variedad casi infinita de pseudociencias, desde las más inocuas a las más nocivas. Pero personas como Oprah Winfrey, y no los profesionales de la ciencia, ni las instituciones médicas, ni mucho menos blogs como este, son los Sócrates del siglo XXI; ellos son los líderes del pensamiento. Y simplemente lamentándolo y lamiéndonos las heridas no vamos a cambiarlo.

¿Y cómo vamos a cambiarlo? No lo sé. Como ya he explicado aquí, basándome no en mis propias conclusiones, sino en las de los expertos dedicados a estudiar eso que ahora se llama el movimiento anti-ilustración, esto no se arregla simplemente con más ciencia, más divulgación, más educación y más conocimiento, como algunos ingenuamente proponen. Simplemente. No. Funciona. Así.

Lo demuestran los estudios que una y otra vez han revelado que la pseudociencia no es propia de cavernícolas ignorantes de que la Tierra gira en torno al Sol, sino de personas con un nivel de educación medio absolutamente equiparable al del resto. La creencia en las pseudociencias no procede de la información escasa o errónea (o sea, de fuera del cerebro), sino del sesgo cognitivo (o sea, de dentro del cerebro). Y el sesgo cognitivo es por definición inmune a la evidencia.

Pero respecto a Cárdenas, hay algo que el presentador sí debería saber, y es que deberá cargar con la responsabilidad moral de sus palabras. Como también he explicado ya aquí y al contrario de lo que algunos equivocadamente creen, la vacunación no es una decisión personal. Citando una comparación que no es mía, pero que me parece de lo más adecuada, la vacunación es tanto una decisión personal como lo es manejar el móvil mientras se conduce. La decisión de no vacunar destruye la inmunidad de grupo o efecto rebaño, el fenómeno que protege a un pequeño porcentaje de vacunados que sin embargo no desarrollan inmunidad.

Como también conté aquí, los nuevos brotes de sarampión (una enfermedad que puede ser mortal) en EEUU causados por el auge de la antivacunación han afectado también a algunos niños vacunados. Los niños no vacunados no solo están en riesgo ellos mismos, sino que ponen en riesgo a otros por la destrucción del efecto rebaño. Y como consecuencia, mueren niños.

Cada padre o madre que decide no vacunar a sus hijos tiene una pequeña parte de responsabilidad en ello. Cada líder mediático cuya opiniones influyen sobre varios miles de padres y madres tiene esa parte de responsabilidad multiplicada por varios miles. Y si dicho líder mediático está dispuesto a vivir con ello, nosotros no lo estamos.

Repito: adiós a la señal alienígena, mientras nadie demuestre lo contrario

Esta semana, el microbiólogo ilicitano Francisco Martínez Mojica, de la Universidad de Alicante, ha recibido el prestigioso y sustancioso premio Fundación BBVA Fronteras del Conocimiento por haber descubierto un sistema de defensa de los microbios de las salinas de Santa Pola que, con el correr del tiempo y de las investigaciones, ha permitido crear CRISPR: la mejor herramienta de cortapega genético de la historia de la biología molecular, uno de los mayores hallazgos de este incipiente siglo y una promesa para la corrección de ciertas enfermedades.

¿Qué tendrá esto que ver con el título del artículo? Este Yanes ha perdido el oremus, tal vez estén pensando. Pero aguántenme un momento, que sigo para llegar a donde voy.

Mojica recibió el premio compartido en paridad con Emmanuelle Charpentier y Jennifer Doudna, las científicas que en la práctica convirtieron esta excentricidad de las bacterias (en realidad arqueas, que no son bacterias) en un valioso instrumental quirúrgico molecular. Mojica fue el descubridor; Charpentier y Doudna, las inventoras.

Hasta ahí, todo correcto. Lo interesante viene al analizar el caso más a fondo, una historia que ya expliqué aquí con detalle. Hasta hace año y medio, nadie sabía quién era Francisco Martínez Mojica. CRISPR ya era una revolución entre la comunidad científica y en los (cada vez más escasos) medios populares que se ocupan de los asuntos de ciencia, pero nadie sabía que su descubridor, y quien le puso el nombre de CRISPR, era un español que trabaja en Alicante. De hecho, nadie sabía quién era su descubridor, y a nadie parecía importarle.

Hasta que, en enero de 2016, a uno de los biólogos más influyentes del mundo, Eric Lander, le dio por investigar la historia de CRISPR para publicar un extenso artículo titulado “Los héroes de CRISPR” en la revista científica de biología número uno del mundo, Cell. Uno de aquellos héroes, especialmente reivindicado en el artículo, era Mojica.

De repente, todo cambió: poco después Mojica aparecía hasta en la Wikipedia, y su nombre comenzó a rumorearse para el Nobel. Pero para entonces, el investigador ya se había perdido los tres millones de dólares del Breakthrough Prize, que recibieron solo Charpentier y Doudna, y lo que es aún más grave, el Princesa de Asturias de Investigación 2015, que recibieron solo Charpentier y Doudna. Aún más grave, dado que el presuntamente muy docto jurado de un premio de tal prestigio no se molestó en hacer lo que después hizo Lander, investigar quién lo merecía, y así un premio español dejó fuera a un español tan acreedor de la distinción como las dos premiadas; una mancha para estos premios que difícilmente podrá repararse.

Y así llego a donde quiero llegar: amigos, por desgracia en muchos casos la ciencia está muy alejada de sus ideales de neutralidad y objetividad. Los científicos están contaminados por los mismos sesgos humanos que de repente convierten en mercancía mediática valiosa a algo como el cocinero ese. Mojica vio cómo su trabajo original era rechazado sucesivamente por la revista Nature y por otras publicaciones de primer nivel sin que siquiera fuera enviado a revisión. Solo consiguió por primera vez colar su firma en una de las revistas filiales de Nature en 2011, diluido entre un bosque de Charpentiers, Koonins, Horvaths y van der Oosts. Cuando su nombre fue descubierto por Lander y comenzó a pronunciarse en las mismas frases que la palabra “Nobel” (que, yo confío, llegará), algunos investigadores extranjeros contactados por varios medios arrugaban la nariz: ¿Nobel? ¿Alicante? ¿Dónde está eso? ¿Cerca de Magaluf?

Ahora tenemos otro posible caso. Se llama Antonio Paris y, como ya expliqué ayer, y como Mojica, no da el perfil ideal: es profesor en una universidad estatal de segunda fila, firma sus investigaciones desde su propio “centro virtual” creado por él mismo, The Center for Planetary Science, suele publicar solo y, sobre todo y para colmo, dedica parte de su tiempo a la investigación científica del fenómeno ovni.

El protagonista de la polémica, el astrónomo Antonio Paris. Imagen de The Center for Planetary Science.

El protagonista de la polémica, el astrónomo Antonio Paris. Imagen de The Center for Planetary Science.

Insisto, posible caso. Entiéndanme, ni mucho menos pretendo comparar a Paris con Mojica, pues el primero no reúne, al menos hasta hoy, los méritos del segundo. Pero como excientífico y veterano periodista de ciencia, me ha parecido que las críticas vertidas a Paris y a su trabajo (repito, no solo a su trabajo, sino a él mismo) recuerdan en cierto modo al caso de Mojica por el insoportable tufillo a contaminación por sesgo y falta de neutralidad.

El trabajo publicado recientemente por Paris, que explica la señal Wow! por el paso de dos cometas (a quien esto le suene a griego clásico, puede encontrar más información aquí), ha recibido ciertas críticas por parte de otros científicos. Esto es normal y habitual, e incluso él mismo señalaba las limitaciones de su estudio y los datos que no encajan con su explicación ni con ninguna otra (por ejemplo, a la crítica de que el radiotelescopio captó la señal con uno de sus receptores, pero no con el otro, Paris ha sugerido la posibilidad, obvia, pero de la que nadie más ha hablado ni por supuesto nadie ha rebatido, de que simplemente el telescopio fallara).

Estas críticas han sido resaltadas por varios medios, que han presentado el asunto desde distintos enfoques, desde el más prudente de la duda, hasta el más arriesgado de afirmar que los resultados de Paris han sido rebatidos por otros científicos. Cuando publiqué ayer mi artículo, algún usuario perezoso en Twitter, de los que leen titulares pero no artículos, señalaba esto último.

Pero no, los resultados de Paris no han sido (aún) rebatidos por otros científicos. Tal vez lo sean mañana, dentro de un mes o de un año. Pero para serlo, deberán serlo por la misma vía que los ha admitido: la publicación científica mediante revisión por pares. Hasta entonces, los resultados de Paris deben considerarse provisionalmente válidos, como todo en ciencia.

Aunque también criticables, como todo en ciencia. El problema en este caso, y de ahí el tufillo que las convierte en sospechosas, es el contenido de estas críticas. No soy astrofísico, y por tanto no estoy cualificado para valorar directamente la calidad de los resultados de Paris. Pero cuando se crea en Reddit un hilo en el que se atacan los resultados de alguien comenzando por cuestionar su heterodoxo perfil y sus credenciales profesionales; cuando se critica el estudio porque la revista en la que se ha publicado no es de las favoritas de los astrónomos; cuando las críticas proceden en parte del descubridor original de la señal, quien de forma más o menos soslayada siempre ha creído en su origen alienígena; cuando, y esto sí que es de chiste, se critica a Paris por hacer “ciencia de nota de prensa”, cuando los resultados de Paris no son una nota de prensa sino un estudio científico publicado, y cuando quien profiere tal crítica no ha publicado una refutación científicamente validada y por tanto sí está haciendo ciencia de nota de prensa…

Miren, yo no conozco a Paris más allá de los breves contactos motivados por los reportajes que he escrito sobre su trabajo. No tengo simpatía por él ni lo contrario. Y personalmente, me encantaría que la señal Wow! fuera realmente el primer saludo alienígena de la historia, así que los resultados de Paris no juegan a favor de lo que me gustaría.

Pero seamos neutrales, honestos y objetivos. Los resultados y sus conclusiones merecen el respeto de cualquier otra publicación científica mientras no se demuestren erróneos por la vía oficial, no en prensa, blogs y reddits. Su autor merece el respeto de cualquier otro científico mientras no se demuestre que ha falseado sus datos de mala fe. Estas son las reglas del juego de la ciencia: hoy debemos aceptar que la balanza se inclina oficialmente hacia una explicación natural de la señal. A quien no le guste, que no lo diga, que lo demuestre y lo publique, y aquí lo contaremos con mucho gusto.

No, la ciencia no es de izquierdas (ni de derechas)

Me llega noticia de la publicación de un libro que analiza el fenómeno de la izquierda anticientífica, ese sector que abraza pseudociencias y conspiranoias, y que rechaza el conocimiento científico actual relativo a asuntos como las llamadas terapias alternativas, las vacunas o los alimentos transgénicos; en resumen, eso que algunos ahora llaman movimiento anti-ilustración, pero en su versión zurda.

Perdonen que no les detalle el título ni el autor, pero una razón me lo aconseja: no he leído el libro y por tanto no quisiera que esto se interpretara como una crítica negativa a una obra en la que evidentemente se ha vertido mucho trabajo y esfuerzo. No tengo motivos para pensar que el autor no haya desarrollado sus razonamientos de forma eficaz y rigurosa, así que este comentario no se refiere al libro, sino a la idea que lo inspira. Porque es una idea muy común, pero es una idea opinable, y en mi opinión es una idea equivocada (y no soy el único). No suelo tratar aquí de política, pero la acción del tópico requiere una reacción, especialmente de quien, como el que suscribe, NO tiene bando político.

La idea en cuestión consiste en pensar que la ciencia es patrimonio de la izquierda, o que la ciencia está en el ADN de la izquierda, o que la izquierda nació de la ciencia, o que la ciencia es de izquierdas. Elijan la versión que prefieran; todas ellas circulan por ahí, pero vienen a resumirse en lo mismo: derecha = ocurantismo, ignorancia y superstición; izquierda = luz, ciencia y razón. Circulan por ahí, naturalmente… entre las personas de izquierdas, como el autor del libro, cuya motivación es indagar en algo que al parecer le provoca estupefacción: ¿cómo es posible que la izquierda, ¡mi izquierda!, caiga en la trampa de la pseudociencia?

Desde luego, quien pretenda hacer una tesis de esta idea puede encontrar argumentos. Si quieren, yo se los facilito: teóricos, como que la ciencia es progreso, y la izquierda es progresista; o históricos, como que la razón fue el motor de la Revolución Francesa (el momento en que la izquierda política se diferenció de su bando rival), o que la Segunda República española fue un período de florecimiento científico.

Pero por cada ejemplo, siempre hay un contraejemplo. No es ninguna sorpresa que la ciencia existió durante siglos sin necesitar izquierdas ni derechas, creciendo en cada época en la medida de sus posibilidades técnicas y del conocimiento acumulado. Ni que Marx rechazaba el positivismo de otros filósofos sociales como Comte.

Respecto a la tan idolatrada Revolución Francesa, y descontando incluso el hecho de que se ejecutó a multitud de inocentes para terminar cambiando a un monarca absoluto por un emperador absoluto, lo cierto es que los científicos franceses estaban repartidos en ambos bandos; de hecho, durante siglos la ciencia fue una ocupación de los más acomodados, aquellos que no debían cavar zanjas para ganarse la vida.

En cuanto a la llamada Edad de Plata española, sí, murió con el golpe de estado de 1936, la Guerra Civil y la postguerra, pero no, no comenzó con la República, sino mucho antes. Casi sobra recordar que el único Nobel español de ciencia fue muy anterior.

Respecto al interés de la República en la ciencia, y para no caer en simplificaciones idealistas del pasado, suelo citar este caso: Manuel Azaña, que si no me equivoco era de izquierdas, sí tenía interés en la ciencia. En su primera etapa de gobierno firmó un decreto para que un sector del Monte de El Pardo se destinara a la construcción de un nuevo Museo de Ciencias Naturales, un Jardín Botánico y laboratorios de investigación. Cuando volvió al gobierno en 1936, encontró que no se había movido un dedo. Y escribió:

Si hubiese decretado que en los terrenos se construyesen grupos escolares, piscinas y campos de deporte, todo el mundo lo habría comprendido, y ya estarían hechos. Muy bien está hacerlos. Pero vaya usted a interesar al poder público, es decir, a unos ministros, unos subsecretarios y directores desvanecidos, en la obra impersonal de crear un museo, un jardín botánico, unos laboratorios, que no dicen nada a las clientelas. Es un ejemplo de la falta de espíritu en el Estado y de la falta de continuidad.

A pesar de los cambios de gobierno durante la República, Azaña no culpaba a ningún bando político concreto, sino al poder público español en general, a los políticos, a los burócratas. Y por cierto, me encanta la referencia a cómo las cosas habrían sido diferentes si se hubiera propuesto construir instalaciones deportivas. Algunas cosas en España no han cambiado en 80 años.

Por último, y respecto a la relación entre ciencia y progresismo, lo reservo para el final. Pero sobre cómo la derecha y la izquierda han tratado a la ciencia, pueden buscarse ejemplos horribles en ambos bandos. Por elegir uno de cada casa:

Derecha: el darwinismo social

Herbert Spencer. Imagen de Wikipedia.

Herbert Spencer. Imagen de Wikipedia.

Sepan que la llegada a Norteamérica de la teoría de Darwin, el mayor avance científico de la historia de la biología, se encontró con la feroz oposición de lo que hoy consideraríamos izquierda, sectores afroamericanos que luchaban por la justicia social. Pero en realidad, no tenía nada de raro. Aunque Darwin postulaba un origen común para las diferentes razas humanas (un concepto, el de raza, hoy científicamente desacreditado), sí hablaba de unas más evolucionadas que otras, a lo cual los curas negros reaccionaron defendiendo el humanismo cristiano frente a la, creían ellos, deshumanización darwiniana.

Pero es que, naturalmente, había una razón, y era el darwinismo social. Tras la publicación de la obra fundamental de Darwin, algunos pensadores políticos que hoy calificaríamos de derechas, como Herbert Spencer, trataron de convertir lo que era únicamente una descripción de un fenómeno natural en un principio rector de la sociedad. El darwinismo social (término que no empleaban sus defensores) contemplaba la sociedad humana como una lucha por la vida donde primaba la “supervivencia del más apto”, una expresión acuñada por Spencer y no por Darwin, y donde los menos adaptados eran eliminados por selección natural.

De este modo, la apelación al orden natural se empleaba para fundamentar la injusticia social, la competencia económica despiadada, el colonialismo o incluso la guerra por los recursos. El darwinismo social fue (y es) una perversión de la ciencia para hacerla servir como excusa de un sistema ideológico, político y económico.

Izquierda: el lysenkoísmo

En el siglo XIX, un monje checo llamado Gregor Mendel formuló las leyes de la herencia, que explican cómo los rasgos se transmiten a la descendencia; en su caso, en las plantas de guisante. Las leyes de Mendel implicaban que todo ser vivo nace ya condicionado por el bagaje genético que ha recibido de sus progenitores; incluso desde antes de venir al mundo, no somos iguales.

Trofim Lysenko. Imagen de Wikipedia.

Trofim Lysenko. Imagen de Wikipedia.

Todo lo cual resultaba inaceptable en un lugar del mundo donde la igualdad era, al menos en teoría, el principio absoluto del orden natural, moral y social: la Unión Soviética. En 1928, un ingeniero agrónomo llamado Trofim Lysenko creyó haber descubierto un método al que llamó vernalización, y por el cual podía modificar las características de los cultivos por factores ambientales, de modo que los nuevos rasgos adquiridos se transmitían a la descendencia. Frente a la selección natural de Darwin, Lysenko defendía la cooperación natural entre las plantas para ayudar a su supervivencia.

Las ideas de Lysenko no solo resultaban más adecuadas al código ideológico soviético, basado en la crianza frente a la herencia, sino que además prometían inmensas mejoras en los cultivos para alimentar a las grandes masas de población. Como consecuencia, el lysenkoísmo se convirtió en la teoría biológica oficial en la URSS, fuertemente apoyada por el régimen de Stalin. Miles de biólogos fueron ejecutados o encarcelados en los gulags por empeñarse en defender la ciencia que sustentaba las leyes de Mendel y la selección natural de Darwin.

Naturalmente, el lysenkoísmo fracasó, sencillamente porque era pseudociencia; otra perversión de la ciencia para hacerla servir como excusa de un sistema ideológico, político y económico.

Y hoy seguimos igual…

Estos son tal vez los dos ejemplos históricos más clásicos y conocidos, pero hoy podemos seguir encontrando cómo ambos bandos del espectro político, derechas e izquierdas, continúan negando la realidad científica en apoyo de sus pre-juicios, ideologías o intereses. Tanto a un lado como al otro del arco hay quienes tratan la ciencia como si fuera un bufé libre, tomando aquello que les interesa y apartando lo que no les gusta.

La derecha tiende a rechazar la ciencia que contradice sus ideas religiosas o político-económicas; ejemplos, la homosexualidad, la evolución biológica (en los fundamentalismos cristianos) o el cambio climático.

Por su parte, la izquierda vitupera lo que para ella representa el imperio económico capitalista, y nada mejor para ello que la llamada big pharma: medicamentos, vacunas y transgénicos. De esta repugnancia visceral hacia el gran poder nacen también las abundantes y muy diversas conspiranoias.

En resumen, no se trata de izquierda y derecha. Y a los asombrados con la izquierda anticientífica, no les vendría mal un repaso a los orígenes de la relación entre política progresista y pseudociencia New Age: se llamaba movimiento hippie, y no es un fenómeno precisamente novedoso.

En realidad es algo mucho más sencillo: tanto en diestros como en zurdos, se trata simplemente de quienes aceptan la ciencia, y quienes no. Así de simple. Quienes nunca la aceptarán son aquellos que no tienen sus ideologías solo para consumo propio, sino que viven con la aspiración de imponerlas a quienes piensan de otro modo. Estos, los de mentalidad autoritaria, siempre pervertirán la ciencia para sus propios intereses, sean de izquierdas o de derechas.

Termino con la idea que dejé colgada más arriba, porque es lo esencial de todo este discurso. En el siglo pasado hice un máster sobre sociología de la ciencia, y como trabajo final analicé dos casos de ficción literaria sobre la ciencia y la tecnología pervertidas al servicio de sistemas ideológicos: Un mundo feliz, de Aldous Huxley, y 1984, de George Orwell. Ambos autores imaginaban sociedades futuras donde la ciencia y la tecnología evidentemente habían progresado, pero cuyos mandatarios las aplicaban a su propia concepción del progreso social. Que obviamente, no lo era en realidad.

Esta, creo, es la raíz del tópico que erróneamente asocia ciencia e izquierda política: confundir progreso con progresismo. O ciencia con ideología.

Este es el gran error de Blade Runner (¿lo arreglarán en la secuela?)

Fui uno de los adoradores de Blade Runner desde el principio. He leído que inicialmente recibió críticas agridulces, y que su estreno no fue un bombazo en la taquilla, y que muchos se sumaron a los elogios después, cuando el fenómeno creció. Pero no presumo de ninguna cualidad como crítico de cine; simplemente, la vi por primera vez allá cuando solo tenía 15 años cumplidos, y entonces era muy raro encontrar una película de Hollywood tan definida por un espíritu y una estética de lo que por entonces llamábamos afterpunk (hoy postpunk). Era natural que muchos la convirtiéramos en un símbolo con el que decorar la carpeta y las paredes de nuestra habitación.

Pero unos años más tarde, cuando empecé a estudiar ciencias, descubrí que gran parte del peso de la trama de Blade Runner se asentaba sobre una premisa científicamente absurda. Les explico.

Imagen de Warner Bros.

Imagen de Warner Bros.

Tanto la película como la novela original de Philip K. Dick (¿Sueñan los androides con ovejas eléctricas?) se basan en la existencia de humanos sintéticos, en el libro llamados simplemente androides. Según se cuenta, a Ridley Scott este término le parecía demasiado estereotipado. Uno de los dos guionistas preguntó a su hija, que estudiaba biología, y ella sugirió el nombre replicante, inspirado por la replicación de ADN cuando una célula se divide.

Ni en el libro ni en la película se explica claramente cómo se producen los androides/replicantes, pero queda claro que son de carne y hueso, indistinguibles de los humanos normales excepto por unos pocos rasgos: carecen de empatía, tienen habilidades especiales (agilidad, fuerza) y una longevidad de cuatro años. Sobre esto último hay una pequeña contradicción, ya que en la película se presentan dos ideas contrapuestas: en un momento se dice que la caducidad fue impuesta para evitar que llegaran a desarrollar capacidad emocional, mientras que en otro se cuenta que la corta vida de los replicantes es una limitación tecnológica a la que no se ha encontrado solución. Algo que, a su vez, no cuadra con el hecho de que Rachael fuera una replicante sin caducidad.

Pero vayamos a lo importante: la identificación de los replicantes. En el libro y la película, los blade runners recurren a una especie de polígrafo, un alambicado test psico-fisiológico llamado Voight-Kampff que revela si el sujeto muestra emociones o no.

En 1968, cuando Dick publicó la novela, el polígrafo era una técnica muy de actualidad, e incluso en EEUU ya había programas de televisión basados en su uso, como el que décadas después haría en España el periodista Julián Lago con aquella famosa frase: “no me conteste ahora, hágalo después de la publicidad”. Gran parte de la trama de Blade Runner se asienta en el hecho de que el Voight-Kampff es un análisis largo, complicado y que requiere la colaboración del sujeto, lo que sustenta la tensión sobre la condición de replicante de Rachael y deja en duda la identidad del propio Deckard, una incógnita que ha sido motivo de discusión durante años.

La máquina del test Voight-Kampff. Imagen de Warner Bros.

La máquina del test Voight-Kampff. Imagen de Warner Bros.

Ahora, vayamos a la realidad. En 1968 la tecnología de ADN aún estaba naciendo. Por entonces no era generalmente conocida, y todavía era difícil prever sus futuras aplicaciones. Pero a comienzos de los 80, cuando se escribió el guión de la película, ya se había secuenciado el primer genoma completo, el del virus bacteriófago φX174, y la biología molecular era una tecnología en plena expansión.

En aquella época ya se sabía que una especie puede identificarse por su secuencia genética. Con los años esto ha llevado a la localización de fragmentos del genoma que sirven como un código de barras genético, con el que puede determinarse la especie a la que pertenece un organismo. Además, la evolución de la tecnología de lectura de ADN ha conducido a la fabricación de máquinas de secuenciación y amplificación cada vez más baratas, rápidas y pequeñas, casi portátiles.

Por otra parte, el progreso de la biología molecular no solo ha permitido modificar genomas a voluntad (como en los organismos transgénicos), sino también crear genomas artificiales de especies simples como bacterias. En ambos casos se marcan estos organismos introduciendo en sus genes unos fragmentos de ADN que actúan como códigos de barras sintéticos, y que pueden tomar la forma que uno desee: se puede codificar en ellos un mensaje, un nombre, un número de serie o cualquier otro tipo de marcaje. Los cultivos transgénicos llevan este tipo de marcas de identificación.

El absurdo es que la humanidad futura de Blade Runner ha alcanzado un nivel de desarrollo que les permite crear o manipular genomas para fabricar personas de carne y hueso con ciertas características finamente alteradas a voluntad; y sin embargo, no parece que nadie haya pensado en introducirles marcadores genéticos para poder identificarlos rápidamente con un sencillo test de ADN, algo que existe en la realidad desde el nacimiento de la edición y la manipulación genética.

De hecho, la idea de la marca física de fábrica sí está presente en la película, aunque no en formato genético. Cuando Deckard encuentra la escama de una serpiente sintética, descubre con un examen microscópico una identificación del fabricante que le llevará hasta el local de strip-tease donde trabaja la replicante Zhora. ¿Por qué una serpiente artificial lleva una marca de fábrica y los replicantes no, sobre todo teniendo en cuenta la vigilancia estricta a la que se les somete?

Pero ya entonces el marcaje genético era una posibilidad evidente, y era fácil imaginar que en una situación real sería un requisito en la creación de cualquier organismo genéticamente alterado. La identificación de los replicantes mediante el test de Voight-Kampff, en lugar de una prueba genética, ya era una idea claramente anacrónica en 1982. Habría bastado con arrancarles un pelo o tomarles una muestra del epitelio bucal con un bastoncillo.

Es más: incluso suponiendo que los fabricantes de replicantes decidieran por cualquier motivo no introducir marcas genéticas específicas en sus diseños, las propias técnicas de edición o síntesis genómica dejan ciertos rastros genéticos que también pueden detectarse, como secuencias bacterianas que actúan como dianas de corte o que están presentes en genes de resistencia a antibióticos. Bastaría un simple análisis rutinario con una máquina llamada PCR para detectar de inmediato a un replicante.

Ahora la pregunta es: ¿habrán pensado en esto los responsables del guión de Blade Runner 2049, la secuela que se estrenará el próximo octubre?

Como escribí aquí hace unos días a propósito de la película Sunshine, la ficción es ficción, y no debe descalificarse solo por sus errores científicos si todo lo demás funciona. Pero la ciencia ficción, si pretende llamarse así, debe actualizarse al estado del conocimiento científico y de las posibilidades tecnológicas de su época.

Hoy cada vez es más habitual, ya casi imprescindible, que cualquier producción seria de ciencia ficción busque la asesoría de científicos expertos. Sin embargo, como ya dejé protestado aquí, suele contarse con físicos e ingenieros, pero no con biólogos; como si hubiera que preocuparse por respetar todo eso de la gravedad, la relatividad y los agujeros negros, y en cambio cualquier ocurrencia que a uno se le antoje sobre las cosas vivas pudiera ser plausible (que, en la mayoría de los casos, no lo es).

En octubre les contaré si los guionistas han estado a la altura, porque un Blade Runner 2049 escrito hoy y que mantenga el test de Voight-Kampff (en el tráiler, al menos, no aparece) no sería retrofuturista; sería como continuar retratando a los tiranosaurios como se creía que eran hace 50 años.

¿Cómo será todo dentro de 1.000 millones de años?

Crecí bajo el signo del No Future, aunque siempre pensé que aquello no era más que una pose juvenil, o incluso una especie de santo y seña, del mismo modo que los masones se reconocen entre ellos cuando hablan del hijo de la viuda.

La Tierra dentro de 5.000 a 7.000 millones de años, con el Sol convertido en una gigante roja. Imagen de Wikipedia.

La Tierra dentro de 5.000 a 7.000 millones de años, con el Sol convertido en una gigante roja. Imagen de Wikipedia.

Pienso que el cerebro humano está cableado para mirar hacia el futuro. Pero no soy el único: importa mucho más lo que piensan quienes dedican su trabajo a estudiar la mente humana. En un interesante artículo publicado la semana pasada en el New York Times, el psicólogo Martin Seligman y el periodista John Tierney argumentaban, tirando de investigaciones, que la capacidad de pensar en el futuro es lo que más distingue al ser humano de otras especies, basándose en una idea hoy cada vez más reconocida por psicólogos y neurocientíficos.

Una ardilla acumula nueces porque lo dicta su programación genética, pero no sabe que se acerca el invierno. Los humanos reservamos mesa para el sábado, pero en realidad “sábado” solo existe como una fantasía colectiva, escriben los autores. Seligman y Tierney citan varios estudios cuyas conclusiones apoyan la idea de que los Homo sapiens somos esencialmente Homo prospectus, criaturas que miramos hacia un amplio mañana: pensamos en el futuro tres veces más que en el pasado, descubría uno de los estudios citados, e incluso cuando pensamos en el pasado tendemos a hacerlo considerando sus implicaciones futuras.

Modestamente, y si de algo sirve haber vivido ya casi medio siglo, hace años llegué a una conclusión: lo que realmente mueve al ser humano no es el amor, como afirman los románticos, ni el dinero, como aseguran los cínicos; lo que mueve al ser humano es la ilusión, un término que puede sonar melifluo, pero que simplemente consiste en la prospección de un futuro al que le confiamos una alta probabilidad de eventos favorables. Me ha sorprendido encontrar una especie de corroboración de mi gran teoría sobre la vida en el artículo de Seligman y Tierney: “los terapeutas exploran nuevas maneras de tratar la depresión, ahora que la ven principalmente como algo no debido a un trauma pasado o un estrés presente, sino a visiones torcidas de lo está por venir”. Es decir, que dejamos de encontrar sentido a la vida cuando desaparece la ilusión.

Otra cosa es que en ocasiones neguemos voluntariamente la mirada al futuro; en este caso, probablemente se deba a que el dibujo de lo que estamos anticipando no nos gusta. Personalmente, hay muchas cosas de este futuro que no me gustan (uno es consciente de que va haciéndose mayor cuando se da cuenta de que ya vive en lo que en otro tiempo fue “el futuro”).

Claro que hay una diferencia entre especular sobre el futuro de si tal o cual equipo ganará la liga, o si tal o cual político controlará un partido (cosas que personalmente me hacen taparme el bostezo), frente a si tal o cual fenómeno pondrá fin a la humanidad en una época en que ni uno ni sus hijos estarán aquí cuando ocurra.

Pero en contra de lo que podría pensarse, interesarse por un futuro que uno no llegará a ver no es solo un ejercicio intelectual; tiene también mucho de emocional. Estoy seguro de que Carl Sagan, después de toda una vida dedicada con pasión a tratar de descerrajar el misterio de la vida en el universo, debió de verse morir no con la fría sensación de un trabajo pendiente, sino con la cálida pena de no llegar a ver jamás satisfecha su gran ilusión.

A quienes piensen de forma parecida va dirigido este vídeo (una pena que no tenga subtítulos en castellano) sobre qué será científicamente razonable que ocurra de aquí a 1.000 millones de años. Para el resto, los telediarios ya les han contado quién ha ganado la liga o qué político controlará tal partido. Eso ya es el pasado.

Ciencia semanal: comer sin gluten puede ser perjudicial para los no celíacos

Una ronda de las noticias científicas más destacadas de la semana.

Gluten-free, solo para celíacos

Hace tan poco tiempo que aún podemos recordarlo, a los celíacos y otros afectados por trastornos metabólicos les costaba encontrar alimentos adaptados a sus necesidades, o al menos encontrarlos a precios asequibles. Por suerte esto fue cambiando, con la intervención destacada de algunos distribuidores. Hoy muchas tiendas y restaurantes ofrecen opciones para celíacos y detallan la idoneidad de sus productos para otros perfiles de trastornos y alergias.

Imagen de @joefoodie / Flickr / CC.

Imagen de @joefoodie / Flickr / CC.

Pero entonces comenzó a producirse un extraño fenómeno, cuando personas perfectamente sanas empezaron a adoptar la costumbre de evitar el gluten en su dieta en la errónea creencia de que es más sano. Y como no podía ser de otra manera, ciertas marcas aprovechan el tirón para fomentar tramposamente esta idea de forma más o menos velada. Mientras, los nutricionistas científicos se tiran de los pelos tratando de desmontar este mito absurdo y sin fundamento.

Estudios anteriores ya han mostrado que el consumo de alimentos libres de gluten no aporta absolutamente ningún beneficio a los no celíacos. Pero ahora estamos avanzando un paso más con la simple aplicación a este caso de un principio general evidente, y es que la restricción de nutrientes en la dieta cuando no hay necesidad de ello solo puede conducir a una dieta deficitaria.

Un estudio con más de 100.000 pacientes a lo largo de 26 años, elaborado en las facultades de medicina de Columbia y Harvard (EEUU) y publicado esta semana en la revista British Medical Journal, confirma que el consumo de gluten en las personas sin celiaquía no aumenta el riesgo de enfermedad coronaria (como sí hace en los celíacos), pero aporta algo más: la reducción del gluten en la dieta disminuye el consumo de grano entero (integral), que se asocia a beneficios en la salud cardiovascular, por lo que la dieta sin gluten puede aumentar el riesgo coronario en los no celíacos.

Los autores son conscientes de las limitaciones de todo estudio epidemiológico, aunque el suyo es muy amplio y excepcionalmente prolongado en el tiempo. Pero como conclusión, advierten: “no debe fomentarse la promoción de dietas libres de gluten entre personas sin enfermedad celíaca”.

Cassini, en el meollo de Saturno

Continuamos siguiendo la odisea de la sonda Cassini de la NASA en sus últimos meses de vida, mientras orbita entre Saturno y sus anillos antes de la zambullida que la llevará a su fin el próximo septiembre. La NASA ha publicado esta semana un vídeo elaborado con las imágenes de la atmósfera de Saturno tomadas por la sonda durante una hora de su recorrido alrededor del planeta gigante. Los científicos de la misión se han encontrado con la sorpresa de que la brecha entre Saturno y sus anillos está prácticamente limpia de polvo, al contrario de lo que esperaban.

Ataque al centro de mando del cáncer

Lo que han conseguido estos investigadores de la Universidad de Pittsburgh (EEUU) no es una de esas noticias que acaparan titulares, pero es un hito sobresaliente en la aplicación de una nueva tecnología de edición genómica (corrección de genes por un método de corta-pega) llamada CRISPR-Cas9, de la que se esperan grandes beneficios en las próximas décadas.

Los autores del estudio, publicado en Nature Biotechnology, han logrado por primera vez emplear esta herramienta para neutralizar un tipo de genes del cáncer llamados genes de fusión. Estos se forman cuando dos genes previamente separados se unen por un error genético, dando como resultado un gen de fusión que promueve el crecimiento canceroso de la célula. Los investigadores trasplantaron a ratones células cancerosas humanas que contienen un gen de fusión llamado MAN2A1-FER, responsable de cánceres de próstata, hígado, pulmón y ovarios. Luego introdujeron en los ratones un virus modificado artificialmente que contiene CRISPR, específicamente diseñado para cortar el gen de fusión y reemplazarlo por otro que induce la muerte de la célula.

El resultado fue que todos los ratones sobrevivieron durante el período total del estudio, sin metástasis y con una reducción considerable de sus tumores, mientras que todos los animales de control, a los que se les suministró un virus parecido pero ineficaz contra su gen de fusión, sucumbieron al cáncer.

Una ventaja adicional es que la técnica puede ir adaptándose a la aparición de nuevas mutaciones en las células cancerosas. Según el director del estudio, Jian-Hua Luo, es un ataque al “centro de mando” del cáncer. Y aunque aún queda un largo camino por delante hasta que el método sea clínicamente utilizable, sin duda es una brillante promesa en la lucha contra esta enfermedad.

Decir tacos nos hace más fuertes

Uno de esos estudios que no van a cambiar el curso de la historia, pero que tal vez confirma lo que algunos ya sospechaban; y que sobre todo dará un argumento científico a quienes sientan la necesidad de vomitar tacos, insultos e improperios durante un gran esfuerzo físico (desde deportistas a madres pariendo sin epidural), pero que tal vez se cohíban por aquello de guardar las formas: háganlo sin miedo. Si alguien se lo reprocha, cítenles los resultados presentados por el doctor Richard Stephens, de la Universidad de Keele (Reino Unido), en la Conferencia Anual de la Sociedad Británica de Psicología: gritar palabras malsonantes nos hace más fuertes.

Los investigadores compararon el rendimiento de un grupo de deportistas en pruebas de esfuerzo, sin y con tacos, descubriendo que en el segundo caso las marcas mejoraban. Curiosamente, y aunque la hipótesis de los autores era que este efecto se produciría a través del sistema nervioso simpático, como ocurre con la mayor tolerancia al dolor en estos casos, no encontraron signos que confirmaran esta asociación. “Así que aún no conocemos por qué decir tacos tiene estos efectos en la fuerza y la tolerancia al dolor”, dice Stephens. “Todavía tenemos que comprender el poder de las palabrotas”.

Ciencia semanal: el reciclaje llega a los cohetes, y por qué tus ex se parecen

Cada semana el mundo de la ciencia produce cientos de noticias, la mayoría de las cuales se asfixian intentando abrirse paso entre la vorágine de informaciones de eso que un director de periódico al que conocí llamaba “actualidad”, con la intención explícita de insinuar que lo otro no lo era. Aquí les he seleccionado algunas píldoras científicas producidas en estos últimos siete días, desde lo relevante a lo curioso.

Despega el primer cohete reciclado

El tecnomagnate Elon Musk y su compañía SpaceX han superado un hito histórico en la tecnología espacial: utilizar un cohete por segunda vez; lanzarlo de nuevo al espacio tras rescatarlo de una misión anterior, y volver a recuperarlo una vez más sano y salvo. Hasta ahora los operadores espaciales, tradicionalmente organismos públicos, habían trabajado con la herencia de la edad dorada del boom de los 60, cuando había dinero a mansalva para gastar. Los cohetes eran de usar y tirar; era más fácil gastar millones de dólares o rublos cada vez que se lanzaba uno de ellos, que invertir en buscar la manera de recuperarlos y reutilizarlos para ahorrar en futuras misiones.

Un cohete Falcon 9 de SpaceX con la primera fase reciclada despega del Centro Espacial Kennedy el 30 de marzo de 2017. Imagen de SpaceX.

Un cohete Falcon 9 de SpaceX con la primera fase reciclada despega del Centro Espacial Kennedy el 30 de marzo de 2017. Imagen de SpaceX.

En este siglo, las empresas privadas han ascendido desde su papel anterior de simples contratistas al de operadores; es lo que algunos expertos llaman el New Space. Para los inversores, esto significa poder hacer lo mismo por menos dinero (y por tanto, con más beneficio); para quienes –por desgracia– no tenemos intereses económicos en el espacio, pero sí mucho interés, significa poder hacer más con el mismo dinero. Aún es muy dudoso que Musk pueda hacer realidad su proyecto de colonizar Marte en la próxima década, como ha anunciado. Pero algunos de los que comenzaron acogiendo la aventura espacial de Musk con las cejas arqueadas ya han tenido que desarquearlas.

Lujo espacial

Sin salir del New Space, otro de los nuevos magnates tecnológicos con gusanillo espacial también ha sido noticia esta semana. Jeff Bezos, el mandamás de Amazon, ha desvelado esta semana el aspecto que tendrá el interior de la cápsula New Shepard de su compañía Blue Origin, con la que pronto espera lanzar sus vuelos suborbitales de pago. Como se espera de un servicio de lujo para clientes acaudalados, el habitáculo de la nave no tiene nada que ver con esa apariencia de almacén de ferretería de la Estación Espacial Internacional.

Interior de la nave New Shepard de Blue Origin. Imagen de Blue Origin.

Interior de la nave New Shepard de Blue Origin. Imagen de Blue Origin.

Con sus asientos de cuero negro y sus acabados a lo PlayStation, el interior de la New Shepard realmente recuerda más a una cabina de videojuegos en grupo que a una Soyuz. Incluso lleva en el centro algo que parece una consola o una mesa de pulsadores para algún concurso televisivo, pero que en realidad es el motor de escape de emergencia por si el cohete falla. Como no podía faltar, cada pasajero dispondrá de su propio amplio ventanal con vistas a la Tierra. Si no quieren perdérselo, vayan guardando las vueltas del pan en el cerdito hasta que sumen entre 100.000 y 200.000 dólares.

En qué se parecen tus ex

Uno de esos estudios curiosones que suelen tener buena acogida en los medios: un equipo de psicólogos, dirigido por Paul W. Eastwick, de la Universidad de California en Davis (EEUU), descubre que los o las exparejas de una persona concreta suelen parecerse en distintos rasgos, tanto físicos como psicológicos.

Según el extenso estudio, publicado en la revista Journal of Personality and Social Psychology, estas similitudes aparecen sobre todo por dos factores: por un lado, cada uno y una tenemos nuestras preferencias en lo tocante al físico; pero además, criterios demográficos como dónde vivimos o trabajamos determinan que con mayor probabilidad vayamos a conocer a personas que se parecen en rasgos como educación, inteligencia o religiosidad. Los investigadores aclaran: no es que a la hora de elegir tengamos en cuenta estos criterios, sino que en parte nos vienen condicionados por el ambiente en el que nos manejamos. Pero recuérdenlo si sienten antipatía por algún ex de su pareja: puede que se parezca a usted más de lo que sospecha.

Los chimpancés no aprecian la música

Vaya usted a saber si la música realmente amansa a las fieras; desde luego, no funcionaba con Keith Moon, el batería de los Who, entre cuyas célebres aficiones se contaba detonar explosivos en los inodoros de los hoteles. Pero ahora tampoco parece que a los chimpancés les entusiasme; y a pesar de que los resultados de investigaciones previas arrojan conclusiones confusas, está comúnmente extendida la costumbre de amenizarles con música la reclusión perpetua en los zoos a nuestros parientes más próximos.

Un estudio de la Universidad de York publicado en PLOS One ha analizado detalladamente la reacción de estos simios a la música de distintas clases, incluyendo la colocación de una gramola donde los chimpancés podían elegir piezas clásicas de Bach, Chopin, Beethoven, o Mozart (nota: curiosamente e ignoro si por casualidad, aunque lo dudo, de este último eligieron el Adagio del Concierto para clarinete en La mayor, la misma pieza que Robert Redford/Denys Finch Hatton reproducía para los babuinos en Memorias de África, con escaso éxito), o en su lugar, temas de Justin Bieber, Adele o Katy Perry, que los autores del estudio etiquetan libremente como “pop/rock”.

Pues bien, a los chimpancés les daba lo mismo Mozart que Bieber o simplemente el dorado silencio. La conclusión de los investigadores es que nuestros parientes no aprecian la música en absoluto; un estudio previo, citan, mostraba que los orangutanes eran incapaces de distinguir la música del ruido aleatorio generado digitalmente. Lo cual nos lleva a plantearnos la posibilidad de que la música sea una maravillosa creación ¿evolutiva-cultural? de exclusividad humana; y no hay muchas de estas que no estén restringidas por capacidades también exclusivas como el habla.

Pero hombre, a los investigadores debería caerles un pequeño tirón de orejas: diría yo que Justin Bieber no podría calificarse precisamente como un fenómeno musical; cuando lo sitúan como alternativa a Mozart o Beethoven, solo les falta bailar sobre las tumbas de estos genios. Y aunque a los chimpancés les importe un ardite, para otra ocasión, si se refieren a rock, pónganles rock; ya que la música no les alivia la reclusión, al menos no se la hagan aún más penosa.