BLOGS
Ciencias mixtas Ciencias mixtas

Los secretos de las ciencias para
los que también son de letras

Archivo de la categoría ‘Ciencia’

El Princesa de Asturias de ciencia acierta este año, pero tiene una deuda pendiente

Ayer las gaitas sonaron en Oviedo un año más para acoger la entrega anual de los premios Princesa de Asturias. Los que hemos crecido con media pata en el Principado envidiamos profundamente a los galardonados, no por el premio, sino porque a diferencia de nosotros anoche cenaron allí, y a gastos pagados. Pero en fin; en el culín de sidra meramente simbólico que le toca beberse a este blog figuran tres nombres propios y un inmenso colectivo de cerebros: los físicos Rainer Weiss, Kip Thorne y Barry Barish, junto con los más de mil integrantes de la Colaboración Científica LIGO, han recibido el premio de Investigación Científica y Técnica 2017.

El físico Rainer Weiss recibe el premio Princesa de Asturias 2017 de Investigación Científica y Técnica de manos del rey Felipe. Imagen de EFE/Chema Moya.

El físico Rainer Weiss recibe el premio Princesa de Asturias 2017 de Investigación Científica y Técnica de manos del rey Felipe. Imagen de EFE/Chema Moya.

Cada año se establece una comparación interesante entre los Nobel y nuestra propia versión, que obviamente no alcanza la misma repercusión internacional que los premios suecos, al menos en ciencia. El paralelismo es relativo, porque los Nobel distinguen tres categorías científicas, mientras que en los nuestros todo entra en un mismo saco.

A pesar de esto, los Princesa de Asturias no tienen una capacidad más limitada para premiar a los científicos, sino todo lo contrario: hay muchas disciplinas científicas que no tienen cabida en los Nobel, mientras que la categoría más amplia de los Princesa permite incluir a los paleoantropólogos, biólogos evolutivos, matemáticos, ingenieros de computación, ecólogos, científicos planetarios o climatólogos, por citar solo algunos ejemplos.

En este blog ya respondí a la clásica pregunta de por qué no hay un Nobel de matemáticas, pero aclarando que la respuesta más bien explica por qué estos premios solo contemplan un espectro muy estrecho de ciencias, dejando fuera a todas las demás. Algunas de las que he mencionado aún no existían en tiempos de Alfred Nobel, pero sí otras. Y la verdadera pregunta debería ser por qué no hay Nobel de invención o tecnología, el campo al que el inventor de la dinamita dedicó toda su vida.

Pero salvando las diferencias entre ambos premios, es interesante comparar dónde ponen el foco cada año dos jurados formados por un puñado de reconocidas personalidades de la ciencia y adláteres. Y dado que los Princesa se anuncian en junio y los Nobel en septiembre, los premios españoles sirven como antesala, recurriendo al tópico y sin que suponga ningún demérito abrir el camino hacia la máxima distinción científica del único planeta habitado conocido (por nosotros, claro).

Lo cierto es que este año los jurados lo tenían fácil. Tanto el Princesa como el Nobel de Física han reconocido lo que muchos han llamado el hallazgo del siglo, la confirmación de las ondas gravitacionales que Einstein predijo hace cien años y que se anunció por primera vez en febrero de 2016.

A diferencia de los Nobel, los Princesa no limitan la concesión a un máximo de tres nombres. El jurado de los premios españoles escogió a los mismos tres responsables de la detección de ondas gravitacionales que aún viven (uno de ellos murió este mismo año) y que este mes han sido agraciados también con el Nobel: el impulsor de todo ello, Rainer Weiss; el teórico, Kip Thorne; y el que lo hizo realidad, Barry Barish.

Pero además, el Princesa ha incluido también de forma más simbólica a todo el equipo que participa en el experimento LIGO, la máquina que permitió llevar a cabo el hallazgo. Como ya conté aquí, más de mil investigadores firmaron el estudio que describió la primera detección de ondas gravitacionales.

Como en el caso de los Nobel, se echa de menos un reconocimiento para los responsables y los integrantes del experimento Virgo, el homólogo europeo del estadounidense LIGO. Virgo no es una sucursal, sino que ambos comenzaron su andadura de forma independiente, para luego entablar una colaboración que ya estaba consolidada antes de que LIGO consiguiera cazar por primera vez las arrugas espaciotemporales. Aquella primera detección no cayó en las redes de Virgo, pero no por ello su contribución a este titánico esfuerzo colectivo e internacional debería quedar sin premio.

En resumen, aunque en este caso los Princesa han acertado al marcar la senda que luego han seguido los Nobel, y además reparten la distinción de una manera más ajustada al formato cooperativo de la investigación científica actual, siempre se olvida a alguien.

En el caso de los Princesa, sin duda el error más imperdonable en la historia de estos galardones se cometió en 2015, cuando se premió a las investigadoras Emmanuelle Charpentier y Jennifer Doudna por el desarrollo de la herramienta de edición genómica CRISPR, dejando fuera al descubridor del sistema; que para más escarnio es español, el alicantino Francis Mojica. Una deuda aún pendiente, y una mancha que debe borrarse cuanto antes: ¿hará falta que Mojica reciba el Nobel para que el jurado del Princesa deje de mirar para otro lado?

Esta es la gran diferencia entre el CSI y la vida real

El asunto de Brandon Mayfield que conté ayer es un caso de ciencia forense, pero también es un caso de ciencia sin apellidos. Con frecuencia me refiero aquí a ciertas situaciones en las que se desprecia el conocimiento científico en cuestiones como las vacunas, la homeopatía o el cambio climático. Pero consecuencias igualmente graves tiene lo opuesto, creer que la ciencia puede aportar más de lo que realmente puede, y basar en ello decisiones tan trascendentales que pueden llevar a alguien a prisión, o incluso al corredor de la muerte en según qué países.

Como suelo decir aquí, la ciencia no es infalible. Aunque, como suelo añadir, la ciencia se refuta con ciencia, y no con folclore, creencias o intuición. Pero no es lo mismo un campo como las vacunas o el cambio climático, donde muchos científicos han trabajado mucho durante muchos años desde muchos enfoques distintos y han llegado a una misma conclusión mayoritaria, que una prueba individual practicada por un laboratorio individual sobre una muestra individual. Cuando digo una, entiéndase que igual da dos o tres; en todo caso no hay una población estadísticamente significativa.

No es que la ciencia forense se equivoque; sí pueden equivocarse las personas que la practican al interpretar la solidez de sus conclusiones. Y así pueden atraer a su equívoco a quienes toman las decisiones judiciales, ya sean jueces o jurados, a quienes no se les supone ni se les exige ningún grado por encima del analfabetismo científico.

CSI: ¿la verdad está ahí dentro? Imagen de CBS.

CSI: ¿la verdad está ahí dentro? Imagen de CBS.

Pero como no tienen por qué aceptar la validez del argumento solo de mi palabra, aquí les traduzco las del Consejo de Asesores en Ciencia y Tecnología del presidente de EEUU (PCAST, por las siglas en inglés), que en un informe publicado hace un año escribían esto:

Más allá de este tipo de limitaciones con respecto a los métodos fiables en las disciplinas forenses de comparación de rasgos, las revisiones han descubierto que los testigos expertos a menudo sobreestiman el valor probatorio de sus pruebas, yendo mucho más allá de lo que la ciencia relevante puede justificar. Por ejemplo, los examinadores testifican que sus conclusiones son “cien por cien ciertas”, o que tienen una probabilidad de error “cero”, “virtualmente cero” o “despreciable”. Sin embargo, como muchas revisiones han notado […], estas afirmaciones no son científicamente defendibles: todas las pruebas de laboratorio y análisis de comparación de rasgos tienen tasas de error que son distintas de cero.

Es decir, que según los expertos del PCAST, basándose en una concienzuda revisión de numerosos casos en EEUU (y el resto del mundo no tiene por qué ser diferente), los peritos científicos que testifican en los juicios a menudo tienden a otorgar un valor de certeza absoluta a sus análisis que no se corresponde con la realidad.

Todo el que tenga conocimiento de cómo funciona la ciencia sabe que los estudios científicos discuten sus conclusiones con expresiones del tipo “nuestros resultados sugieren…” o “los datos son compatibles con…”, siempre con su buena guarnición de subjuntivos y condicionales. Muy raramente, si es que alguna vez ocurre, un estudio científico afirma demostrar algo categóricamente y sin resquicios. Sencillamente, esto no pasa. Y en cambio, según los expertos del PCAST, parece que este tipo de lenguaje dogmático tan impropio de la ciencia sí es habitual cuando un perito científico sube al estrado.

Una aclaración: cuando estos expertos se refieren a análisis de comparación de rasgos, hablan de las técnicas más habituales de la ciencia forense que vemos en telediarios, películas y series como CSI: estudio microscópico del pelo, análisis de huellas (también dactilares), mordeduras, pruebas de ADN… En resumen, todo.

Algunas de estas pruebas quedan pulverizadas en el informe, como el análisis de marcas de mordeduras, que según el PCAST “no reúne los estándares científicos de validez en sus fundamentos, y está muy lejos de reunirlos”. En el caso de las huellas de calzado, los expertos descubren que “no existen estudios empíricos apropiados” para justificar su fiabilidad real, por lo que “no es científicamente válido”.

Tampoco se salvan los exámenes balísticos, otro clásico del género. En este caso, dice el PCAST, no hay datos suficientes: “actualmente no alcanzan los criterios de validez porque solo hay un único estudio apropiadamente diseñado para medir su validez y su fiabilidad estimada”.

¡Tenemos una coincidencia! Imagen de Ubisoft.

¡Tenemos una coincidencia! Imagen de Ubisoft.

Pero es que en el caso de las huellas dactilares, que solemos interpretar como la prueba incuestionable de culpabilidad, el informe apunta que la tasa de falsos positivos –identificaciones erróneas, como en el caso de Mayfield– puede llegar a un caso de cada 306 según un estudio; y según otro, nada menos que a ¡un caso de cada 18!

Multiplíquenlo por la cifra que les parezca adecuada para estimar el número de juicios que se celebran a diario en el mundo; sea cual sea la cifra real, la conclusión es la misma: todos los días las huellas dactilares pueden estar acusando a una multitud de inocentes. Y como consecuencia, dejando a los culpables en la calle. Dado que en países como el nuestro todos cedemos generosamente nuestras huellas al estado cuando tramitamos el DNI o el pasaporte, cualquiera podríamos vernos algún día en un trance como el de Mayfield.

Por supuesto, hoy la regla de oro es el ADN. Pero también en este caso hay que diferenciar entre muestras simples individuales, como por ejemplo el esperma de un violador recogido del interior de la vagina, y muestras complejas como las tomadas en el escenario de un crimen por el cual ha pasado un número incontable de fuentes de material genético, no solo humanas.

En este segundo caso, el informe considera que los métodos a menudo utilizados actualmente para analizar muestras complejas “no son válidos en sus fundamentos” porque “pueden llevar a resultados erróneos”. Pero incluso en el caso de una sola fuente, para el cual el análisis de ADN sí se considera “un método válido y fiable”, los expertos advierten: “en la práctica no es infalible. En las pruebas de ADN los errores pueden ocurrir y ocurren”.

Los autores del informe aluden sobre todo a errores humanos o interpretaciones equivocadas de los resultados. En la vida real, a diferencia de lo que muestran la tele o el cine, las máquinas de análisis de ADN no devuelven la foto de carné de un tipo, sino datos que deben procesarse con los programas adecuados y compararse con las muestras pertinentes para al final obtener algo que no es un veredicto de culpabilidad o inocencia, sino una cifra estadística.

El problema con la estadística es que tendemos a interpretarla en términos de fe; claro que el problema no está en la estadística, sino en nosotros. Compramos el Euromillones porque creemos que va a tocarnos. Pero salimos cada día a la calle sin casco porque de ninguna manera creemos que vaya a caernos un meteorito encima. Y sin embargo, como ya conté aquí, es 87 veces más probable morir por el impacto de un asteroide que ganar el Euromillones.

Los miembros del PCAST ponen un ejemplo muy ilustrativo. Imaginen un test que tiene una tasa de falsos positivos de 1 de cada 100. Desde un punto de vista probabilístico puramente intuitivo, un juez y un jurado tenderán a inculpar al acusado si el test resulta positivo.

Pero si surge ese testigo providencial, tan típico de las películas, asegurando haber visto al acusado a la hora de los hechos a más de mil kilómetros del lugar del crimen, la balanza justiciera se inclina hacia el lado contrario: lo más probable es que se trate precisamente de ese único caso de cada cien. Con una misma prueba forense e idéntico resultado, la diferencia entre la libertad y la cárcel depende de un testigo que en la vida real, a diferencia de las películas, tampoco suele aparecer.

El caso de Brandon Mayfield y el fiasco de las huellas dactilares del 11-M

Probablemente no les suene el nombre de Brandon Mayfield. Abogado estadounidense, 51 años, residente en Oregón… ¿Nada? ¿Y si les cuento que este tipo fue arrestado por el FBI en 2004 como sospechoso de haber perpetrado la masacre del 11-M en Madrid? ¿Y que la detención fue motivada por una presunta coincidencia de sus huellas dactilares con las halladas en una mochila con explosivos utilizada en los atentados… a pesar de que Mayfield jamás había estado en España?

Atentados del 11-M. Imagen de EFE/20 Minutos.

Atentados del 11-M. Imagen de EFE/20 Minutos.

La historia de Brandon Mayfield tiene diversos matices, pero me interesa destacar uno: la ciencia no es infalible, pero lo verdaderamente grave sucede cuando quienes toman las grandes decisiones no saben distinguir la ciencia buena de la mala o la pseudociencia.

Después de los atentados del 11-M, la policía española envió a Interpol las huellas dactilares halladas en los escenarios de los ataques. Las huellas llegaron así hasta el FBI, que las cotejó con sus bases de datos. La comparación resultó en posibles coincidencias con 20 individuos fichados. Uno de ellos era Brandon Mayfield, cuyas huellas figuraban en los archivos del FBI por haber servido en el ejército.

Pero Mayfield era, además, musulmán, convertido al islam a través de su mujer egipcia. Y aún peor (para el FBI), como abogado había defendido a un integrante de los llamados Siete de Portland, un grupo de estadounidenses que habían tratado de viajar a Afganistán para unirse a Al Qaida; pero no en un juicio relacionado con este hecho, sino en un caso de custodia.

Al FBI le bastaron estos débiles indicios para seleccionar a Mayfield de su lista de 20 y convertirlo en su sospechoso favorito, sometiéndole a un dispositivo de vigilancia. Sus teléfonos fueron pinchados y su casa allanada. Finalmente, a principios de mayo, Mayfield fue detenido y puesto en aislamiento, sin contacto con su familia y con limitada asistencia legal.

Lo curioso y terrible del caso es que en abril, semanas antes del arresto de Mayfield, nuestra Policía Nacional había enviado un escrito al FBI descartando la concidencia entre las huellas del abogado y las halladas en la mochila, y apuntando a otros posibles sospechosos. ¿Cuál fue entonces la respuesta de la agencia estadounidense? Simplemente, ignorar la conclusión de la policía española y aferrarse a su tesis de que la coincidencia estaba verificada al cien por cien.

A la izquierda, huella dactilar recuperada de una mochila de los atentados del 11-M. A la derecha, huella dactilar de Brandon Mayfield en el archivo del FBI. Imagen de Science.

A la izquierda, huella dactilar recuperada de una mochila de los atentados del 11-M. A la derecha, huella dactilar de Brandon Mayfield en el archivo del FBI. Imagen de Science.

El 19 de mayo, la policía española anunciaba por fin que las huellas pertenecían al argelino Daoud Ouhnane. Sólo al día siguiente, cuando la prensa internacional divulgó la noticia, el FBI se vio obligado a liberar a Mayfield. Unos días después, un juez estadounidense archivaba el caso.

Según el posterior informe del Departamento de Justicia de EEUU, por cierto censurado en las partes que refieren los métodos de seguimiento y obtención de pruebas, “después de que el Laboratorio del FBI hubiera examinado las huellas dactilares del argelino, retiró la identificación de Mayfield y lo liberó de su custodia”. El informe exculpaba al FBI de mala praxis, limitándose a sugerir que todo se había debido a “errores” y que existían ciertos “problemas de desempeño”.

Mayfield recibió una disculpa y una indemnización de dos millones de dólares. Pero aunque tal vez lo más llamativo de esta historia sea la chapuza del presuntamente todopoderoso FBI y su olímpico menosprecio hacia la policía de otro país, en este caso el nuestro, en la raíz de todo ello yace un problema que no es político ni policial, sino científico. El FBI encontró no una coincidencia, sino 20. ¿Es que acaso las huellas dactilares no son una prueba tan inequívoca como siempre se nos ha hecho creer?

La respuesta, en la próxima entrega.

Los Nobel, uno fresco, otro rancio, y siempre dejan a alguien fuera

Como cada año por estas fechas, no puede faltar en este blog un comentario sobre lo que nos ha traído la edición de turno de los premios Nobel. Y aunque cumplo con esta autoimpuesta obligación, debo confesarles que lo hago con la boca un poco pastosa. No por desmerecer a los ganadores, siempre científicos de altísimos logros, sino por otros motivos que año tras año suelo traer aquí y que conciernen a los propios premios.

Imagen de Wikipedia.

Imagen de Wikipedia.

En primer lugar, están los merecimientos no premiados de los que siempre se quedan por debajo de la línea de corte. Ya lo he dicho aquí, y no descubro nada nuevo: ya no hay Ramones y Cajales encerrados a solas en su laboratorio. Vivimos en la época de la ciencia colaborativa y a veces incluso multitudinaria, donde algunos estudios vienen firmados por miles de autores. No exagero: hace un par de años, un estudio de estimación de la masa del bosón de Higgs batió todos los récords conocidos al venir firmado por una lista de 5.154 autores. Nueve páginas de estudio, 24 páginas de nombres.

En el caso que nos ocupa, el Nobel de Física 2017 anunciado esta semana ha premiado la detección de ondas gravitacionales, un hito histórico que se anunció y publicó por primera vez en febrero de 2016, que confirmó la predicción planteada por Einstein hace un siglo y que según los físicos abre una nueva era de la astronomía, ya que enciende una nueva luz, que en este caso no es luz, para observar el universo.

Pero aunque sin duda el hallazgo merece los máximos honores que puedan concederse en el mundo de la ciencia, el problema es que los Nobel fueron instituidos por un tipo que murió hace 121 años, cuando la ciencia era cosa de matrimonios Curies investigando en un cobertizo. Y las normas de los Nobel dicen que como máximo se puede premiar a tres científicos para cada categoría.

Los agraciados en este caso han sido Rainer Weiss, Barry Barish y Kip Thorne, los tres estadounidenses, el primero nacido en Alemania. Weiss se queda con la mitad del premio, mientras que Barish y Thorne se reparten el otro 50%.

No cabe duda de que los tres lo merecen. Weiss fue quien inventó el detector que ha servido para pescar por primera vez las arrugas en el tejido del espacio-tiempo, producidas por un evento cataclísmico como la fusión de dos agujeros negros. Thorne ha sido la cabeza más visible en el desarrollo de la teoría de las ondas gravitacionales, además de ser un divulgador mediático y popular: creó el modelo de agujero negro que aparecía en la película Interstellar. Por su parte, Barish ha sido el principal artífice de LIGO, el detector que primero observó las ondas gravitacionales y que se construyó según el modelo de Weiss apoyado en la teoría de Thorne.

Pero más de mil científicos firmaron el estudio que describió la primicia de las ondas gravitacionales. Sus diversos grados de contribución no quedan reflejados en la lista de autores, ya que en casos así no se sigue la convención clásica de situar al principal autor directo del trabajo en primer lugar y al investigador senior en el último; aquí la lista es alfabética, sin un responsable identificado. El primero de la lista era un tal Abbott, cuyo único mérito para que aquel estudio histórico ahora se cite como “Abbott et al.” fue su ventaja alfabética. De hecho, había tres Abbotts en la lista de autores.

¿Se hace justicia premiando solo a tres? Tengo para mí que los físicos especializados en la materia, sobre todo quienes hayan participado de forma más directa o indirecta en este campo de estudio, tal vez tengan la sensación de que queda alguna cuenta no saldada.

Como mínimo, habrá quienes achaquen al jurado que haya olvidado la importantísima contribución de Virgo, el socio europeo del experimento LIGO. Ambos nacieron de forma independiente en los años 80, LIGO en EEUU y Virgo en Italia como producto de una iniciativa italo-francesa. Con el paso de los años, LIGO y Virgo comenzaron a trabajar en una colaboración que estaba ya muy bien trabada antes de que el detector estadounidense lograra la primera detección de las ondas gravitacionales. La cuarta detección de ondas de este tipo, anunciada hace solo unos días, se ha producido en paralelo en LIGO y en Virgo. ¿Es justo dejar a los artífices del proyecto europeo sin el reconocimiento del Nobel?

Por supuesto, son las normas de los premios. Pero miren esto: el testamento de Nobel no mencionaba en absoluto a tres premiados por cada categoría, sino que se refería simplemente a “la persona que…”. Por lo tanto, si se trata de ceñirse estrictamente a la última voluntad del fundador de los premios, estos no deberían repartirse.

Pero la limitada representatividad de la lista de premiados no es el único defecto de los Nobel. Otro que también he comentado aquí en años anteriores es la tendencia a premiar trabajos tan antiguos que ni sus autores ya se lo esperaban, si es que siguen vivos. Y en esto tampoco se respetan las instrucciones de Alfred Nobel, ya que él especificó que los premios deberían concederse a quien “durante el año precedente haya conferido el mayor beneficio a la humanidad”.

Si al menos este año en Física se ha premiado ciencia fresca y puntera, no ocurre lo mismo con la categoría de Fisiología o Medicina. Los tres galardonados, Jeffrey Hall, Michael Rosbash y Michael Young, todos estadounidenses, lograron sus avances fundamentales sobre los mecanismos moleculares del reloj biológico (los ritmos circadianos) allá por los años 80.

De hecho, hay un dato muy ilustrativo. A diferencia del caso de las ondas gravitacionales, en el campo de los ritmos circadianos sí hay dos nombres que muy claramente deberían encabezar una lista de candidatos a recibir los honores: Seymour Benzer y su estudiante Ron Konopka, los genetistas estadounidenses que primero descubrieron las mutaciones en los genes circadianos con las cuales pudo escribirse la ciencia moderna de la cronobiología. Pero Benzer falleció en 2007, y Konopka en 2015. Y no hay Nobel póstumo. El premio en este caso se ha concedido a una segunda generación de investigadores porque se ha concedido tan a destiempo que los de la primera murieron sin el debido reconocimiento.

En este caso, los Nobel pecan una vez más de conservadurismo, de no apostar por avances más recientes cuyo impacto está hoy de plena actualidad en las páginas de las revistas científicas. Por ejemplo, CRISPR, el sistema de corrección de genes que abre la medicina del futuro y en el que nuestro país tiene un firme candidato al premio, el alicantino Francisco Martínez Mojica. Pero dado que este avance también puede optar al Nobel de Química, que se anuncia hoy miércoles dentro de un rato, de momento sigamos conteniendo la respiración.

Gatos líquidos, sexo al revés y cómo no derramar el café al andar: Ig Nobel 2017

Lo prometido. Después de la influencia de sostener un cocodrilo en las apuestas en los juegos de azar, investigación merecedora del premio Ig Nobel 2017 de Economía, aquí les enumero el resto de los trabajos ganadores de esta edición. Pero como les dije, y siguiendo el espíritu de los premios que primero hacen reír, y luego hacen pensar, en cada uno de ellos les explico brevemente por qué, no por más sorprendentes, (casi) todos estos estudios dejan de tener su mayor o menor relevancia para la ciencia. Recuerden: (casi) todas estas investigaciones están publicadas en revistas científicas, algunas de gran impacto. No, a pesar de lo que lean por ahí, (casi siempre) no son absurdas.

Por cierto, las categorías no son las mismas todos los años; se designan en cada edición a medida de las investigaciones premiadas.

Ceremonia de entrega de los premios Ig Nobel 2017. Imagen de Improbable Research.

Ceremonia de entrega de los premios Ig Nobel 2017. Imagen de Improbable Research.

Ig Nobel de Física: ¿puede un gato ser sólido y líquido al mismo tiempo?

Comienzo con la excepción a la regla, que justifica los paréntesis en los párrafos anteriores. El estudio firmado por el físico francés Marc-Antoine Fardin no es realmente tal estudio, sino una broma para reólogos, los científicos que estudian la dinámica de los fluidos. Fardin publicó en 2014 un artículo en el Boletín de la Sociedad de Reología (no una revista científica, sino un boletín) que aplica los conceptos de esta ciencia a los gatos. Puro humor científico.

Ig Nobel de la Paz: tocar el didyeridú alivia la apnea y los ronquidos

Didyeridús. Imagen de Wikipedia.

Didyeridús. Imagen de Wikipedia.

Un grupo de investigadores de Suiza, Canadá, Holanda y EEUU ha ensayado el tratamiento más improbable contra la apnea del sueño y los ronquidos: tocar el didyeridú, una especie de enorme trompeta que es tradicional entre los aborígenes de Australia. Y según el estudio publicado en la revista British Medical Journal, el tratamiento es eficaz para los pacientes con síntomas moderados. Claro que habría que valorar si merece la pena: el régimen impuesto a los participantes en el ensayo fue tocar el didyeridú durante casi media hora al día, seis días a la semana durante cuatro meses.

Ig Nobel de Anatomía: ¿por qué los ancianos tienen orejas grandes?

El médico inglés James Heathcote aborda en la revista British Medical Journal una de las más curiosas peculiaridades anatómicas del ser humano: las orejas no dejan de crecer desde que nacemos hasta que morimos. En realidad Heathcote no es ni mucho menos el primero en fijarse en ello. Esta peculiaridad ya se había estudiado científicamente al menos desde los años 50, y hace 10 años un estudio exhaustivo investigó el crecimiento de las orejas a lo largo de la vida de casi 1.500 voluntarios. Los resultados fueron sorprendentes: las orejas crecen más en los hombres que en las mujeres, sobre todo en los primeros 10 años de vida, pero no aumentan de tamaño uniformemente. Los investigadores proponían el tamaño de la oreja como un parámetro a tener en cuenta a la hora de estimar la edad de un cadáver en los análisis forenses.

Ig Nobel de Biología: el insecto con pene femenino y vagina masculina

Órganos sexuales del macho y la hembra de Neotrogla. Imagen de Yoshizawa et al., Current Biology.

Órganos sexuales del macho y la hembra de Neotrogla. Imagen de Yoshizawa et al., Current Biology.

En la naturaleza se han encontrado rarezas genitales de todo tipo, pero nunca antes una como la de Neotrogla, un pequeño insecto que vive en las cuevas de Brasil alimentándonse del guano de los murciélagos. En el mundo de estas criaturas, es la hembra la que posee un órgano parecido a un pene que introduce en una abertura en el cuerpo del macho. Aunque se conocen otros casos de animales con los papeles cambiados, sólo la hembra del Neotrogla posee un auténtico pene con todas las de la ley, pero en vez de expulsar, succiona; tanto el esperma del macho como los nutrientes de su fluido seminal. Y lo hace hasta 70 horas seguidas, el tiempo que puede durar una cópula en estos bichos. Los científicos piensan que es una adaptación a la escasez de recursos nutritivos en las cuevas, donde las hembras compiten por los machos.

Ig Nobel de Dinámica de Fluidos: el café se derrama menos caminando hacia atrás

Postura de garra. Imagen de Jiwon Han, Achievements in the Life Sciences.

Postura de garra. Imagen de Jiwon Han, Achievements in the Life Sciences.

El coreano Jiwon Han sabe mirar las cosas al revés que los demás. ¿Quién no ha caminado con sumo cuidado llevando una taza de café en la mano para terminar derramando una parte? El accidente se debe a las ondas que se forman en la taza al caminar, y que chocan con las paredes. Han se preguntó si el movimiento armónico sería diferente caminando hacia atrás, y creó un modelo matemático aplicando las ecuaciones de Euler-Lagrange. Y según los resultados, sí, el método es eficaz. Pero para evitar colisiones con el mobiliario o con otros humanos, Han recomienda una alternativa que también funciona, y es caminar hacia delante agarrando la taza con los cinco dedos por la parte superior, lo que llama la “postura de garra”. Nótese que Han elaboró este trabajo cuando aún era estudiante de instituto.

Ig Nobel de Nutrición: dieta de sangre humana cuando escasea el pollo

Cráneo del murciélago vampiro Diphylla ecaudata. Imagen de Wikipedia.

Cráneo del murciélago vampiro Diphylla ecaudata. Imagen de Wikipedia.

Existen tres especies de murciélagos vampiros, es decir, que se alimentan exclusivamente de sangre. Mientras que dos de ellas son poco selectivas con sus presas, se pensaba que la especie Diphylla ecaudata bebía únicamente sangre de pájaros. Un estudio descubre que no es así: gracias a las técnicas de biología molecular, ya no es necesario perseguir a los animales para observarlos en el momento de alimentarse. Basta recoger sus heces y comprobar el ADN que contienen. Los investigadores descubrieron que el guano del ecaudata contenía ADN de pollo, pero también humano, y sospechan que estos murciélagos cambian su dieta en tiempos de escasez. Y advierten: la destrucción de los recursos llevará a estos animales cada vez más a buscar la abundante sangre humana, dejando a cambio un regalo indeseable, el virus de la rabia.

Ig Nobel de Medicina: la firma cerebral del odio al queso

Hoy en día, las técnicas de imagen cerebral se aplican a todo. Se ha escaneado el cerebro de personas mientras realizan todo tipo de actividades, incluyendo el sexo. Los aparatos de Resonancia Magnética Funcional por Imagen (fMRI, en inglés) permiten descubrir qué áreas del cerebro se nos activan cuando hacemos cualquier cosa, y estos estudios sirven a los neurocientíficos para identificar la implicación de las regiones cerebrales en distintas funciones. Un grupo de investigadores ha estudiado por este método la aversión a la comida. A la hora de elegir un alimento concreto, descubrieron que el queso se ama tanto como se odia: al parecer, hay un mayor porcentaje de personas que odian el queso que otros alimentos. Los autores del estudio han identificado regiones del cerebro implicadas en esta aversión al queso.

Ig Nobel de Cognición: los gemelos no se distinguen entre ellos

Yo sé que soy yo. Pero si tuviera un clon, ¿sabría distinguirme de él en una prueba visual? Al parecer no, según los resultados de un estudio. Los investigadores descubren que muchos gemelos idénticos tienen serios problemas para distinguirse en fotografías. A quienes no tenemos gemelo tal vez nos sorprenda o al contrario, nos resulte obvio. Tanto como la siguiente afirmación de los investigadores: “especulamos que en gemelos monocigóticos la representación visual de la propia cara solapa con la del co-gemelo”. Los autores añaden que, para distinguirse de su gemelo, estas personas tienen que confiar mucho más que el resto de los humanos en “procesos de integración multisensorial en los que se basa el sentido del propio yo”.

Ig Nobel de Obstetricia: el Babypod

Imagen de Babypod.

Imagen de Babypod.

El premio en la infrecuente categoría de obstetricia ha agraciado a un equipo íntegramente español, por mostrar que los fetos en desarrollo reaccionan de forma más notoria a la música cuando suena directamente dentro de la vagina, y no a través de la pared abdominal. Nace así el Babypod, un altavoz cuyo uso resulta evidente a partir de lo anterior. No cabe duda de que a todos nos gusta más escuchar la música en nuestra propia habitación que desde la casa del vecino. El problema puede surgir cuando la música del vecino nos resulta odiosa. Y dado que los fetos aún no pueden elegir una playlist de acuerdo a sus propios gustos, el peligro del Babypod es que, dependiendo de los gustos musicales de la madre, pueda resultar tan nocivo para el bebé como los altavoces aquellos de la prisión de Guantánamo.

¿Para qué sirve sostener un cocodrilo mientras se juega a las tragaperras?

Posiblemente algunos de ustedes, que están leyendo estas líneas, habrán colegido que la pregunta que titula este artículo debe de esconder algún tipo de sentido metafórico pretendidamente profundo. Pues nada de eso: parafraseando a Hemingway cuando explicaba el significado de El viejo y el mar, el cocodrilo es el cocodrilo y la tragaperras es la tragaperras.

O sea: el significado es literal. Y esta pregunta es exactamente la que han respondido Matthew Rockloff y Nancy Greer, investigadores de la Universidad de Queensland Central (Australia). Aunque en realidad la respondieron allá por 2010; si su estudio vuelve a ser pertinente ahora es porque ha ganado un premio. Pero tampoco se trata de una distinción convencional. Síganme, que se lo explico.

Imagen de Javier Yanes.

Imagen de Javier Yanes.

En 2010, Rockloff y Greer estudiaban qué papel desempeñan las emociones en los juegos de azar para las personas en posible riesgo de ludopatía; es decir, cómo la excitación generada por el juego puede influir a la hora de apostar. Como ven, un tema muy relevante y de indudable impacto social. Pero para sus experimentos de campo con voluntarios, los dos investigadores necesitaban introducir un método para controlar la variable emocional, una forma de provocar la excitación en el jugador, pero ajena al propio juego para poder medir su efecto en relación con los controles.

Lo solucionaron a la australiana: ¿qué tal darles a sostener un cocodrilo? Así que Rockloff y Greer se desplazaron a la granja de cocodrilos de agua salada de Koorana, en Coowonga, y allí abordaron a los turistas en un total de 100 visitas guiadas.

A la mitad de los participantes les invitaron a jugar a una simulación de máquina tragaperras en un ordenador portátil antes de su visita a la granja. A la otra mitad, inmediatamente después de la visita, cuya última actividad consiste en ofrecer a los turistas un cocodrilo de un metro para que lo sostengan mientras se hacen una foto. Por otra parte, los investigadores registraron diversos datos sobre los voluntarios, sus estados de ánimo y la existencia o no de problemas previos con el juego.

Tras el experimento, los dos científicos descubrieron que la excitación de sostener el cocodrilo aumentaba la cantidad de las apuestas en las personas en riesgo de ludopatía sin frecuentes emociones negativas. Por el contrario, los voluntarios con problemas con el juego y abundantes emociones negativas apostaban menos después de sujetar el reptil. “Los resultados sugieren que la excitación puede intensificar el juego en los jugadores de riesgo, pero solo si este estado emocional no se percibe como negativo”, escribían Rockloff y Greer en su estudio.

Pero si aún continúan estupefactos ante el inusual método elegido por los investigadores, y siguen preguntándose con juicioso criterio por qué no se fueron a un casino, como parecería lógico, la respuesta es que precisamente trataban de evitar esto último. El ambiente del casino, alegan Rockloff y Greer, tiene un elemento intrínsecamente excitante, al estar concebido como un lugar de entretenimiento.

El objetivo del estudio era poner a prueba la influencia de las emociones en una situación más cotidiana, fuera del entorno de los grandes centros de juego; algo más parecido a echar monedas en la tragaperras de un bar. Y es precisamente este tipo de situación la que suele ser problemática para muchos adictos al juego.

Así que ya lo ven: una investigación en apariencia rocambolesca tiene un trasfondo serio y valioso. Y son todas estas cualidades las que han hecho a Rockloff y Greer merecedores de uno de los premios Ig Nobel 2017, entregados la semana pasada en la Universidad de Harvard por los editores de la web Improbable Research, como cada año desde 1991.

Los investigadores Nancy Greer y Matthew Rockloff, pertrechados con ocasión de la ceremonia de los premios Ig Nobel. Imagen de CQUniversity.

Los investigadores Nancy Greer y Matthew Rockloff, pertrechados con ocasión de la ceremonia de los premios Ig Nobel. Imagen de CQUniversity.

Si han oído alguna vez hablar de estos premios, tal vez hayan leído que son una parodia de los Nobel. No estoy muy de acuerdo con esta descripción. La parodia es imitación burlesca, según el diccionario, y que se sepa los Ig Nobel no son un remedo de nada, sino una iniciativa cien por cien original. Ni mucho menos pretenden burlarse de nadie. En la era de las redes sociales ya hay suficiente graciosismo por el mundo.

La intención de los Ig Nobel y de su fundador, Marc Abrahams, no es premiar imbecilidades ni ocurrencias graciosas. Los premios, cuyo nombre es un juego de palabras que en inglés significa “innoble”, distinguen cada año investigaciones legítimas, válidas y publicadas, pero inusualmente extrañas, imaginativas o aberrantes. Como dice Abrahams, “investigaciones que primero hacen reír y luego hacen pensar”. Y que, dicho sea de paso, entroncan formidablemente con la veterana y muy honorable tradición de la ciencia punk.

Mañana les contaré algo más sobre otras de las investigaciones premiadas este año.

¿Es posible dispararse uno mismo en el pecho con un arma de caza?

La idea de una persona disparándose en el pecho con una escopeta o un rifle puede encajar casi en cualquier posición entre lo lógico y lo absurdo, según como cada cual quiera planteárselo. Imagino que lo hemos visto muchas veces en el cine, lo cual no es en absoluto una garantía de que pueda corresponder a una situación real. Pero entre la duda natural, y los esfuerzos que últimamente hace la actualidad por convertir en real lo impensable, es esperable que circulen las verdades alternativas.

Así que, donde muchos suelen invocar el imperio de la ley, algunos estamos aquí para invocar el imperio de la ciencia, que a diferencia del primero no viene arbitrariamente impuesto. Alguien tiene que actuar como simple pregonero de lo que la ciencia tiene que decir al respecto, siempre que la ciencia tenga algo que decir al respecto.

Miguel Blesa. Imagen de 20Minutos.es.

Miguel Blesa. Imagen de 20Minutos.es.

Y la ciencia ya lo ha dicho, hablando por boca de los científicos forenses, que son quienes en este caso tienen la experiencia y el conocimiento necesarios para llegar a una conclusión razonable amparada en las pruebas. La autopsia confirma que Miguel Blesa se suicidó, y punto. Ante este dictamen no cabe nada más que añadir.

Pese a todo, parece que no basta. Un ligero vistazo a Twitter y a los comentarios en las noticias de los medios descubre una avalancha de opiniones anónimas sosteniendo que los brazos son demasiado cortos para poder apretar el gatillo sujetando una escopeta o un rifle en el sentido contrario a su uso normal, es decir, con el cañón hacia el pecho.

Debo aclarar que por supuesto no soy un experto en ciencia forense, y que por añadidura no tengo la menor idea sobre el mundo de las armas de fuego. Pero creo que sí soy experto en dos cosas: una, en manejar documentación científica. Y dos, en hacerme preguntas y buscar fuentes autorizadas para responderlas. Así que animo a quien quiera verter conjeturas a que antes se decida a hacer esto mismo que he hecho yo. De verdad, incluso con el calor del verano, poner las neuronas a funcionar siempre es un ejercicio interesante que no enseñan en el gimnasio.

Lo primero que me viene a la mente tras leer sobre la muerte de Blesa es un nombre: Ernest Hemingway. Tratándose de uno de mis autores favoritos, de inmediato recuerdo que murió en su casa de Idaho por un disparo con una de sus escopetas. En un primer momento el suceso se hizo pasar por un accidente de caza, pero pronto quedó aclarado que se descerrajó el tiro voluntariamente. Hemingway padecía hemocromatosis, una rara enfermedad que se ha relacionado con diversos suicidios en su familia. En sus últimos tiempos, la cabeza ya no le regía bien.

Pero Hemingway se disparó en la cabeza, no en el pecho. Así, lo segundo que hago es telefonear a un amigo cazador. Le encuentro en su retiro vacacional, y apenas se ha enterado de lo de Blesa. A mi pregunta de si es posible dispararse a uno mismo en el pecho con una escopeta o un rifle, me regala una larga y profusa explicación sobre los tipos de armas, la longitud de los cañones, la sensibilidad de los gatillos y las posturas de disparo. Pero cuando le pido el monosílabo que necesito como conclusión, es un sí; sí, es perfectamente posible dispararse a uno mismo en el pecho con un arma de caza utilizando solo los dedos de las manos, sin ayudarse con un palo o con los pies. Aunque, añade, no todas las personas podrían hacerlo con todas las armas.

Lo siguiente que hago es bajar al sótano y simular mi propio suicidio. A falta de escopeta, bien viene una escoba. Compruebo que obviamente el gatillo quedaría más accesible si uno se dispara en la frente que en el pecho, pero también que todo es cuestión del ángulo de disparo. El ángulo de 90 grados es el que obliga a estirar más los brazos, pero reduciendo el ángulo en cualquier de los dos sentidos las manos llegan fácilmente a partes más lejanas del palo. Así que, imagino, los forenses de Córdoba habrán dictaminado que la longitud de los brazos de Blesa es compatible con el ángulo de entrada del disparo para que él mismo pudiera apretar el gatillo.

Un rifle de caza del mismo calibre (.270) que el utilizado por Miguel Blesa para suicidarse. Imagen de Wikipedia.

Un rifle de caza del mismo calibre (.270) que el utilizado por Miguel Blesa para suicidarse. Imagen de Wikipedia.

Lo último que hago es recurrir a las publicaciones científicas. Y sí, como era de esperar, hay infinidad de casos descritos de suicidios con escopetas o rifles de caza; de hecho, son las armas de fuego mayoritariamente elegidas para quitarse la vida en algunos países europeos, pero también en Canadá.

Yendo a datos concretos, un estudio de 2014 recopiló 57 suicidios con escopeta en una región de Turquía entre 2000 y 2007. De ellos, 34 fueron por disparos en la cabeza, 9 en el abdomen y 7 en el pecho, un 12,3% de los casos. En otro estudio de 2016 en Minnesota (EEUU), los disparos en el pecho sumaban el 21,5% de los casos de suicidios con escopeta. Curiosamente, en otro estudio recopilatorio en Estambul, casi la mitad de las mujeres que se disparaban con escopetas lo hacían en el abdomen, a pesar de tener generalmente los brazos más cortos que los hombres.

Por los datos de los expertos, parece claro que los suicidas suelen elegir dispararse en la cabeza; otro estudio publicado por forenses indios en 2015 dice: “Las heridas en los casos de suicidios por arma de fuego son generalmente en la región de la cabeza. Cuando se encuentra una herida en otro lugar, se levanta una ceja de sospecha”. Pero precisamente el motivo de este último estudio era el caso de un hombre muerto por un disparo de escopeta en el pecho y sobre el que existían sospechas de homicidio.

Con los datos recogidos en la escena del crimen y el resultado de la autopsia, los forenses concluyen que se trataba de un suicidio. El suicida había apoyado la culata del arma en el suelo y se había inclinado sobre ella para alcanzar el gatillo con la mano derecha, lo que había resultado en una trayectoria del disparo de derecha a izquierda y hacia abajo, es decir, desde la parte alta del pecho hacia la parte baja. Este último dato era el que había despistado inicialmente a los forenses, pero de hecho el estudio de Minnesota descubría que casi el 65% de los autodisparos con escopeta en el pecho estaban dirigidos hacia abajo.

Pero la mayor enseñanza que puede extraerse de dedicar un rato a escuchar lo que dicen los expertos es que emitir opiniones infundadas solo lleva a aumentar la confusión improductiva: entre los casos descritos de suicidios con rifles o escopetas se encuentran algunos muy rocambolescos, que cualquiera a primera vista creería imposibles. Un hombre en Turquía se suicidó con un disparo de escopeta por la espalda a 1,4 metros de distancia; ató el arma a un árbol y accionó el gatillo con una cuerda. Hay varios casos descritos en que, sí, por increíble que parezca, una persona se ha disparado a sí misma más de una vez. En un caso en Australia, un hombre se disparó tres veces con una escopeta. Otro suicida se disparó dos veces sucesivas con dos armas distintas.

Naturalmente, también hay casos en los que se intenta hacer pasar por suicidio lo que en realidad es un homicidio. En un caso en Sri Lanka, los forenses dictaminaron que las características de la herida de un hombre eran incompatibles con la posibilidad de que sus propios brazos de 65 centímetros hubieran podido dispararse a sí mismo un arma cuya longitud desde el extremo del cañón hasta el gatillo era de 79 centímetros.

Pero la ciencia forense no se deja engañar fácilmente; hoy incluso existen análisis estadísticos que permiten a los patólogos calcular la probabilidad de homicidio o suicidio a través del estudio de las heridas. La ciencia no es infalible, pero es lo más parecido que tenemos al mundo real. Claro que todo ser humano es libre para elegir si prefiere vivir en el mundo real o en su mundo imaginario favorito.

No, los estudios científicos no dicen lo que quiere quien los paga

Esta semana, en un programa de radio, una periodista daba el boletín de noticias, en el que comentaba un nuevo estudio según el cual el consumo de café se relaciona con un menor riesgo de muerte prematura. No vengo hoy a comentar este estudio; en realidad eran dos, aquí y aquí, muy amplios y documentados, pero con la eterna objeción de la epidemiología: correlación no significa causalidad.

Mi objetivo hoy es otro. Mientras la periodista contaba la noticia, de pronto entraba improvisadamente y sin invitación la voz de otra persona, también periodista, pero que estaba allí presente para participar en la tertulia posterior. Este periodista decía que había que mirar quién pagaba el estudio, porque los estudios científicos “dicen lo que quiere quien los paga”.

Revistas científicas. Imagen de Wikipedia.

Revistas científicas. Imagen de Wikipedia.

El error es garrafal, monumental, astronómico. Y a pesar de eso, realmente lo de menos es el nombre del periodista. Si lo omito no es por corporativismo; los lectores de este blog sabrán que uno de los argumentos que suelo traer aquí es la mala visibilidad de la ciencia en la prensa de este país, y la escasa implicación de muchos de los medios generalistas en la información científica elaborada (repito, elaborada, no fusilada de agencias) por verdaderos especialistas al mismo nivel que la información cubierta en otras áreas como política, economía, deportes o cultura.

Pero en este caso, y tal vez sin que él mismo fuera consciente de ello, este periodista no estaba actuando como analista de nada, sino como público en general; no quiero aplicarle ese término de parentesco político que tanto se emplea ahora con fines peyorativos. Y aunque un periodista se responsabiliza de sus palabras con su firma, es evidente que se trataba de un comentario casual al margen sobre algo que ignora profundamente, y no de una declaración de opinión.

Lo cual no le quita importancia al error: precisamente el motivo de que sea enormemente preocupante es la medida en que el comentario puede representar a un amplio sector de población que ignora cómo funciona la ciencia, y que puede dejarse seducir por argumentos de este tipo. Y los argumentos de este tipo están en la raíz de las posturas anticiencia, del movimiento anti-Ilustración y del camino hacia lo que ahora recibe tantos nombres: muerte de los expertos, postverdad, relativismo… En fin, llamémoslo pseudociencias.

Así que creo que esta es una buena ocasión para explicar cómo funciona la ciencia a quienes hasta ahora no lo sabían. Y conviene empezar explicando qué es lo que yace en los cimientos de todo el conocimiento científico. Se trata de una palabra mágica:

Publicación.

Pongámoslo así: probablemente un estudio científico sea lo más difícil de publicar que existe hoy en el mundo. Algunos de ustedes pensarán que es muy complicado publicar una novela, y que estoy minimizando este problema porque, como figura en el recuadro de la derecha, hay una editorial que publica las mías. Pero lo cierto es que hoy en día una novela puede autopublicarse en internet y conseguir miles de lectores; hay innumerables ejemplos de ello.

En cambio, uno no puede autopublicarse un estudio científico. Para que un estudio científico se considere publicado no basta con colgarlo en internet o pegarlo con celo a una farola. Tiene que ser admitido para su publicación, y eso requiere atravesar la puerta grande de la academia custodiada por un fiero guardián llamado…

Revisión por pares.

¿Qué es la revisión por pares? No, no es que un par de editores con algo de conocimiento sobre el tema en cuestión lo revise para comprobar que el corrector automático no ha cambiado “el Kremlin” por “el Cremilla”, como en aquel famoso artículo de La Vanguardia. Es un proceso extremadamente concienzudo y riguroso que puede llevar meses, o un año, o más; al menos en mi época, los años 90, cuando los estudios aún se enviaban en papel y por correo. El formato digital ha reducido algo los plazos de espera, pero no los del trabajo, que sigue siendo el mismo.

Así es como funciona: un equipo de investigadores dedica meses o años a un estudio, a lo que una vez completado el trabajo se suman semanas o meses para detallarlo por escrito según los formatos estándar requeridos por las revistas. Para ello hay que elegir la revista en la que se intentará publicar, una elección de los propios investigadores que se basa en factores como la novedad de los resultados, la solidez de los datos y el impacto de las conclusiones.

Una vez enviado el estudio a la revista, el equipo editorial decide si lo canaliza para su revisión, o si directamente lo rechaza. En mi experiencia, lo segundo es lo más común. En ese caso, vuelta a empezar: los autores deben entonces elegir otra revista, tal vez de menor nivel o más sectorial, y volver a comenzar el proceso. No es raro que un estudio resulte rechazado por los editores dos, tres o cuatro veces antes de que alguna revista acepte darle una oportunidad e ingresarlo en el proceso de revisión por pares.

Los pares en cuestión, llamados reviewers o referees, no forman parte del equipo de la revista. Como indica el término, son iguales, investigadores en activo, científicos reputados con experiencia en el área del estudio, pero se supone que no son colaboradores ni competidores directos de los autores. Son, por tanto, completamente independientes. Un trabajo se envía como mínimo a dos referees, pero pueden ser hasta cuatro o cinco, y sus nombres permanecerán ocultos para los autores.

El proceso de revisión es un durísimo y despiadado destrozo del trabajo de los investigadores, de cabo a rabo. Algunos referees puntillosos pueden sugerir algún cambio en el estilo de redacción, pero el proceso de revisión está enfocado a diseccionar, destripar y despiezar el estudio, desde la concepción y el diseño experimental, pasando por los materiales y métodos utilizados, la ejecución de los experimentos y los resultados, hasta su análisis, presentación, conclusiones y discusión, y si todo ello es lo bastante transparente y está lo suficientemente detallado y documentado como para que otros investigadores puedan repetir los mismos experimentos.

Comprenderán que el resultado de todo este proceso suele ser en muchos casos un pulgar hacia abajo. Es frecuente que el veredicto de los referees sea tan negativo que desaconsejen a la revista la publicación del trabajo. Y entonces, vuelta a la casilla de salida.

Por fin, en algún momento de albricias, de repente el juicio de los referees concede la remota posibilidad de que el trabajo llegue algún día a ver la luz, si bien no antes de unos pequeños cambios. Pero estos pequeños cambios no consisten en sustituir un “sin embargo” por un “no obstante”, sino que generalmente requieren hacer nuevos experimentos. Y esto ya no es volver a la casilla de salida, sino sacar la carta de la cárcel. Nuevos experimentos implican guardar el estudio en el cajón durante semanas, tal vez meses, para después sacarlo del cajón y tirarlo a la papelera con el fin de incluir los nuevos resultados.

Si todo va bien y los nuevos experimentos confirman las conclusiones, al menos ya no estamos en la casilla de salida. Pero el trabajo debe volver a pasar una vez más por los referees. Se supone que, satisfechas ya sus exigencias, deberían finalmente aprobar el estudio para su publicación. Pero no hay garantías, y no es algo inédito que a las antiguas objeciones se superpongan ahora otras nuevas que al referee se le han ocurrido a propósito de los últimos resultados.

Eventualmente, por fin el trabajo llega algún día a publicarse. Para entonces, desde que los investigadores tuvieron la idea de emprender aquel estudio, los becarios ya han terminado la tesis y se han marchado a otros laboratorios. Algunos de los investigadores han tenido hijos. Alguno ha muerto. No es frecuente, pero sí esporádico, que en la lista de los autores alguno de ellos lleve junto a su nombre una llamada que a pie de página aclara: “deceased”.

A propósito de la lista de autores, conviene también explicar que todos los nombres van acompañados de llamadas que llevan al pie de la página, donde se enumeran las respectivas filiaciones de los investigadores. Pero además, los estudios detallan qué entidades los han financiado. Y desde hace varios años, es obligatorio también que cada uno de los autores firme una declaración individual en la que exponga sus conflictos de intereses; es decir, si recibe algún tipo de beneficio por parte de alguna entidad que pueda tener intereses en el área del estudio.

Por supuesto, esto no impide que las compañías financien estudios de sus productos, y de hecho todas lo hacen. Pero esto siempre queda especificado en el estudio como un conflicto de interés, y en cualquier caso estos trabajos deben pasar por todo el proceso anterior de evaluación independiente si aspiran a ser verdaderas publicaciones científicas, y no artículos en el boletín mensual de la empresa.

Naturalmente, como todo sistema, el de la ciencia también tiene sus defectos. Y como en todo colectivo humano, siempre hay ovejas negras. Hay ejemplos a gran escala, como los complots de las tabaqueras y de las azucareras para ocultar los perjuicios de sus productos, y a pequeña, como el de Andrew Wakefield, el médico que inventó la relación entre vacunas y autismo para hacer caja con ello, o el de Hwang Woo Suk, el biotecnólogo coreano que falseó un estudio sobre clonación humana. Pero de todo ello el sistema aprende y se perfecciona, del mismo modo que los accidentes de aviación sirven para corregir fallos, sin que los siniestros aéreos logren evitarse por completo.

Afirmar alegremente que los estudios científicos dicen lo que quiere quien los paga no solamente es ignorar todo esto, ni es solamente llamar a los referees idiotas o corruptos. La generalización supone acusar de corrupción a todos los actores del largo y complejo proceso científico; a todo el sistema en su conjunto. No, los estudios científicos no dicen lo que quiere quien los paga. Esos son los artículos periodísticos.

El cómico John Oliver habla sobre las vacunas, y no se lo pierdan

Decía Carl Sagan que en ciencia es frecuente comprobar cómo un científico cambia de parecer y reconoce que estaba equivocado, cuando las pruebas así lo aconsejan. Y que aunque esto no ocurre tanto como debería, ya que los científicos también son humanos y todo humano es resistente a abandonar sus posturas, es algo que nunca vemos ocurrir en la política o la religión.

Imagen de YouTube.

Imagen de YouTube.

Los que tratamos de adherirnos a esta manera de pensar, sea por formación científica o por tendencia innata, que no lo sé, solemos hacerlo con cierta frecuencia. Personalmente, durante años estuve convencido de que la solución a la creencia en las pseudociencias estaba en más educación científica y más divulgación. Hasta que comencé realmente a indagar en lo que los expertos han descubierto sobre esto. Entonces me di cuenta de que mi postura previa era simplista y poco informada, y cambié de parecer.

Resulta que los psicólogos sociales descubren que los creyentes en las pseudociencias son generalmente personas con un nivel educativo y un interés y conocimiento científicos comparables al resto. Resulta que los mensajes públicos basados en las pruebas científicas no solo no descabalgan de sus posturas a los creyentes en las pseudociencias, sino que incluso les hacen clavar más los estribos a su caballo. Resulta que los psicólogos cognitivos y neuropsicólogos estudian el llamado sesgo cognitivo, un mecanismo mental por el cual una persona tiende a ignorar o minimizar toneladas de pruebas en contra de sus creencias, y en cambio recorta y pega en un lugar prominente de su cerebro cualquier mínimo indicio al que pueda agarrarse para darse la razón a sí misma. Es, por ejemplo, la madre de un asesino defendiendo pese a todo que su hijo es inocente, aunque haya confesado.

Pero el sesgo cognitivo no solo actúa a escala personal, sino también corporativa, en el sentido social de la palabra, como identificación y pertenencia a un grupo: parece claro que muchas organizaciones ecologistas jamás de los jamases reconocerán las apabullantes evidencias científicas que no han logrado, y mira que lo han intentado, demostrar ningún efecto perjudicial de los alimentos transgénicos. Lo cual aparta a muchas organizaciones de lo que un día fue una apariencia de credibilidad científica apoyada en estudios. Y tristemente, cuando esa credibilidad científica desaparece, a algunos no nos queda más remedio que apartarnos de esas organizaciones: si niegan los datos en una materia, ¿cómo vamos a creérselos en otras?

El neurocientífico y divulgador Dean Burnett me daba en una ocasión una interesante explicación evolutiva del sesgo cognitivo. Durante la mayor parte de nuestra historia como especie, decía Burnett, aún no habíamos descubierto la ciencia, la experimentación, la deducción, la inducción, la lógica. En su lugar, nos guiábamos por la intuición, la superstición o el pensamiento mágico. Desde el punto de vista de la evolución de nuestro cerebro, apenas estamos estrenando el pensamiento racional, y todavía no acabamos de acostumbrarnos; aún somos niños creyendo en hadas, duendes y unicornios.

Así, la gente en general no piensa como los científicos, me decían otros. No es cuestión de mayor o menor inteligencia, ni es cuestión de mejor o peor educación. De hecho, muchas personas educadas tratan de disfrazar sus sesgos cognitivos (y todos los tenemos) bajo una falsa apariencia de escepticismo racional, cuando lo que hacen en realidad es lo que uno de estos expertos llamaba “pensar como un abogado”, o seleccionar cuidadosamente (en inglés lo llaman cherry-picking) algún dato minoritario, irrelevante o intrascendente, pero que juega a su favor. Un ejemplo es este caso tan típico: “yo no soy [racista/xenófobo/machista/homófobo/negacionista del holocausto/antivacunas/etc.], PERO…”.

Estos casos de sesgos cognitivos disfrazados, proseguían los expertos, son los más peligrosos de cara a la sociedad; primero, porque su apariencia de acercamiento neutral y de escepticismo, de no ceñirse a un criterio formado a priori, es más poderosa a la hora de sembrar la duda entre otras personas menos informadas que una postura fanática sin tapujos.

Segundo e importantísimo, porque el disfraz a veces les permite incluso colarse en la propia comunidad científica. Es el caso cuando unos pocos científicos sostienen un criterio contrario al de la mayoría, y son por ello destacados por los no científicos a quienes no les gustan las pruebas mayoritarias: ocurre con cuestiones como el cambio climático o los transgénicos; cuando hay alguna voz discrepante en la comunidad científica, en muy rarísimas ocasiones, si es que hay alguna, se trata de un genio capaz de ver lo que nadie más ha logrado ver. Es mucho más probable que se trate de un sesgo disfrazado, el del mal científico que no trata de refutar su propia hipótesis, como debe hacerse, sino de demostrarla. Pero hay un caso aún peor, y es el del científico corrupto guiado por motivaciones económicas; este fue el caso de Andrew Wakefield, el que inventó el inexistente vínculo entre vacunas y autismo.

He venido hoy a hablarles de todo esto a propósito del asunto antivacunas que comenté ayer, porque algunas de estas cuestiones y muchas otras más están genialmente tratadas en este vídeo que les traigo. John Oliver es un cómico, actor y showman inglés que presenta el programa Last Week Tonight en la HBO de EEUU. Habitualmente Oliver suele ocuparse de temas políticos, pero de vez en cuando entra en harina científica. Y sin tener una formación específica en ciencia, es un paladín del pensamiento racional y de la prueba, demostrando una lucidez enorme y bastante rara entre las celebrities. Y por si fuera poco, maneja con maestría esas cualidades que solemos atribuir al humor británico.

Por desgracia, el vídeo solo está disponible en inglés, así que deberán conocer el idioma para seguirlo, pero los subtítulos automáticos de YouTube les ayudarán si no tienen el oído muy entrenado. Háganme caso y disfrútenlo: explica maravillosamente la presunta polémica de las vacunas, tiene mucho contenido científico de interés, y además van a reírse.

La anti-vacunación no es una decisión personal, porque puede matar a otros

Me entero por mi vecina de blog Madre Reciente de que el presentador Javier Cárdenas ha defendido públicamente dos argumentos falsos: la falacia inventada con ánimo de lucro de que las vacunas causan autismo, y la conclusión errónea de que los casos de autismo han crecido de forma espectacular en los últimos años (el enlace lleva a la explicación detallada sobre la naturaleza de la falsedad de ambos argumentos). Y compruebo en Google que las palabras de Cárdenas han arrastrado una larga y prolija cola de reacciones y contrarreacciones.

El presentador Javier Cárdenas. Imagen de Wikipedia.

El presentador Javier Cárdenas. Imagen de Wikipedia.

La pregunta es: ¿qué importa lo que diga Cárdenas? No puedo valorar el trabajo de este presentador, ya que no sigo sus programas. En alguna ocasión, esperando el comienzo de alguna película en la 1 de TVE, he visto los últimos minutos de un espacio que hace por las noches y en el cual el presentador y su claque hablaban como muy en serio de psicofonías, apariciones de fantasmas y cosas por el estilo.

Pero más allá de ver a un grupo de profesionales adultos departiendo como una cuadrilla de scouts en torno a un fuego de campamento, con reflexiones en Prime Time como “oye, pues yo creo que algo hay”, esto tampoco es sorprendente, ni siquiera en una televisión que pago con mis impuestos. Que yo sepa, TVE lleva pagando con nuestros impuestos programas de bulos esotéricos desde hace más de 40 años, desde aquellos tiempos del Doctor Jiménez del Oso; quien, por cierto, era un pseudocientífico, pero en mi humilde opinión también un comunicador de enorme talento, que una cosa no quita la otra.

Siendo así, insisto, ¿qué importa lo que diga Cárdenas? Su opinión respecto a las vacunas tiene tanto valor como la de un futbolista, o como la mía respecto a Cárdenas o los futbolistas. ¿Es necesario y pertinente que se le conceda tanto eco mediático, que le respondan públicamente profesionales de la ciencia e instituciones médicas? ¿Acaso todo esto no está aumentando la resonancia del personaje y de sus palabras, y tal vez incluso mejorando sus índices de audiencia para el frotar de manos de más de un directivo de radio y televisión?

La respuesta a esta última pregunta es que probablemente sí. Pero a pesar de todo, y por desgracia, la respuesta a la primera pregunta continúa siendo que lo que diga Cárdenas sí importa.

Importa porque Cárdenas es un tipo conocido con un altavoz que escuchan miles de seguidores. Precisamente acabo de escribir un artículo, aún no publicado, sobre celebrities que defienden proclamas pseudocientíficas. En el país líder de la ciencia mundial, EEUU, la líder mediática nacional es una señora que continuamente presta su espacio, sin ningún tipo de rigor ni filtro, a una variedad casi infinita de pseudociencias, desde las más inocuas a las más nocivas. Pero personas como Oprah Winfrey, y no los profesionales de la ciencia, ni las instituciones médicas, ni mucho menos blogs como este, son los Sócrates del siglo XXI; ellos son los líderes del pensamiento. Y simplemente lamentándolo y lamiéndonos las heridas no vamos a cambiarlo.

¿Y cómo vamos a cambiarlo? No lo sé. Como ya he explicado aquí, basándome no en mis propias conclusiones, sino en las de los expertos dedicados a estudiar eso que ahora se llama el movimiento anti-ilustración, esto no se arregla simplemente con más ciencia, más divulgación, más educación y más conocimiento, como algunos ingenuamente proponen. Simplemente. No. Funciona. Así.

Lo demuestran los estudios que una y otra vez han revelado que la pseudociencia no es propia de cavernícolas ignorantes de que la Tierra gira en torno al Sol, sino de personas con un nivel de educación medio absolutamente equiparable al del resto. La creencia en las pseudociencias no procede de la información escasa o errónea (o sea, de fuera del cerebro), sino del sesgo cognitivo (o sea, de dentro del cerebro). Y el sesgo cognitivo es por definición inmune a la evidencia.

Pero respecto a Cárdenas, hay algo que el presentador sí debería saber, y es que deberá cargar con la responsabilidad moral de sus palabras. Como también he explicado ya aquí y al contrario de lo que algunos equivocadamente creen, la vacunación no es una decisión personal. Citando una comparación que no es mía, pero que me parece de lo más adecuada, la vacunación es tanto una decisión personal como lo es manejar el móvil mientras se conduce. La decisión de no vacunar destruye la inmunidad de grupo o efecto rebaño, el fenómeno que protege a un pequeño porcentaje de vacunados que sin embargo no desarrollan inmunidad.

Como también conté aquí, los nuevos brotes de sarampión (una enfermedad que puede ser mortal) en EEUU causados por el auge de la antivacunación han afectado también a algunos niños vacunados. Los niños no vacunados no solo están en riesgo ellos mismos, sino que ponen en riesgo a otros por la destrucción del efecto rebaño. Y como consecuencia, mueren niños.

Cada padre o madre que decide no vacunar a sus hijos tiene una pequeña parte de responsabilidad en ello. Cada líder mediático cuya opiniones influyen sobre varios miles de padres y madres tiene esa parte de responsabilidad multiplicada por varios miles. Y si dicho líder mediático está dispuesto a vivir con ello, nosotros no lo estamos.