Archivo de la categoría ‘Ciencia’

Este paciente pide que cada médico se decante: medicina basada en ciencia, o no

Hace unos días ordenaba uno de esos pequeños agujeros negros donde solemos almacenar medicamentos que caducaron cuando aún se prescribían sangrías (de las de sanguijuelas, no de las de tinto). Obviamente, rechazo y desaconsejo este acaparamiento farmacológico; claro que nos lo pondrían más fácil si, en lugar de obligarnos a comprar la caja de 500 píldoras, pudiéramos adquirir un botecito con el tratamiento exacto que necesitamos, como ocurre en otros países.

Pues resultó que, navegando entre las reliquias fósiles de enfermedades pasadas, de pronto mis ojos se posaron en una caja de jarabe para la tos donde, en letra menuda, aparecía una leyenda lacerante para mi vista: “medicamento homeopático”. ¿Cómo? ¿Cuándo? Aquel descubrimiento fue como… en fin, como encontrar homeopatía en mi botiquín. Para qué buscar una metáfora sobre algo más absurdo y humillante.

No tengo la menor idea de cómo ni cuándo aquel producto llegó a mi armario. Pero parece probable que, en algún momento del pasado, alguno de los pediatras que alguna vez ha atendido a alguno de mis hijos nos la ha colado. Sin avisarnos de que nos la iba a colar. Y que, por algún motivo que no me explico, nosotros, posiblemente confiando en que el médico al que visitábamos ejercería como médico de verdad, ni siquiera nos molestamos en leer lo que decía la letra pequeña. Un incomprensible error por mi parte que reconozco y que no se repetirá. Pero también un acto médico que, como mínimo, solo debería tolerarse previa información al paciente.

En realidad no he venido a contar una anécdota personal que poco importa, sino que este episodio me ha sugerido dos reflexiones. La primera, respecto al propio producto concreto que se escondía en mi casa, la dejo para la próxima ocasión, ya que tiene bastante zumo que exprimir. La segunda se refiere precisamente a lo que acabo de mencionar: ¿sería mucho pedir que, al menos a quienes así lo deseemos, se nos trate exclusivamente con medicina de verdad?

Homeopatía. Imagen de Pixabay.

Homeopatía. Imagen de Pixabay.

Disculpen si prosigo con otra referencia personal, pero me sirve para explicar lo que pretendo. Tuve un abuelo médico. Recuerdo su consulta en su propia casa, como era costumbre antes; con una camilla de metal y vidrios sobre la cual no podía existir una postura cómoda, y con un aparato de rayos X casi de cuando Curie. Al fondo del pasillo, una sala le servía como laboratorio, con microscopios que eran verdaderas joyas y toda una cacharrería de retortas y cristalería antigua que venía incluso grabada a mano con la firma del fabricante, Fulano de Tal, Calle Arenal, Madrid. Allí mi abuela le ayudaba con los análisis, centrifugando las muestras de sangre y tiñéndolas con Giemsa para luego contar las células una a una bajo el microscopio, hematíes, eosinófilos, basófilos…

La casa-consulta de mis abuelos fue una de las patrias de mi infancia, y por ello la recuerdo con cariño y nostalgia. En aquella época se contemplaba a los médicos como sabios avalados por una experiencia de la que emanaba su poder de curar. Cuando decían “esta fórmula funciona”, nadie osaba jamás ponerlo en duda. Eran infalibles, tanto que los regalos de sus pacientes eran casi más bien ofrendas a los dioses de la salud: por Navidad les traían pollos y pavos. No, no en un blíster de plástico, sino crudos, vivos y con todas sus plumas. En casa de mis abuelos los encerraban en el baño de servicio hasta que entraba la cocinera a retorcerles el pescuezo. Cosas de entonces.

¿Y dónde quedaba la ciencia? Bueno, por supuesto que en aquel entonces ya se publicaban el New England Journal of Medicine y el British Medical Journal (hoy BMJ). Por supuesto que se celebraban congresos de medicina, y que se investigaba, y que se publicaba, y que se avanzaba descubriendo nuevos compuestos y métodos terapéuticos. Pero para un médico de a pie como mi abuelo, formado en la España de los años 20, todo aquello quedaba tan lejos como la galaxia de Andrómeda.

Para empezar, él ni siquiera hablaba inglés; había estudiado francés, como la mayoría en su generación. Naturalmente, seguía las publicaciones en castellano que le llegaban a través del Colegio de Médicos y de otras organizaciones profesionales, pero recuerdo su biblioteca dominada sobre todo por antiguos volúmenes encuadernados en piel que contenían verdades médicas, al parecer, inmutables. Por descontado, él se relacionaba con sus colegas, con quienes intercambiaba observaciones sobre sus casos y sobre la eficacia percibida de diversos tratamientos. Pero todo aquello no llegaba a formar una comunidad científica, el pilar sobre el que se construye el conocimiento científico.

Aquella versión romántica de la medicina hoy ya no tiene cabida. Aquella época murió.

Pero ¿murió de verdad? Todavía me sorprende seguir escuchando en la radio, en pleno siglo XXI, esas cuñas en las que el Doctor Mengano recomienda tal producto farmacéutico o parafarmacéutico. Porque, en realidad, lo único que revela la recomendación del Doctor Mengano es que al Doctor Mengano le han pagado para recomendar tal producto farmacéutico o parafarmacéutico. Aún, si el Doctor Mengano dedicara sus diez segundos de micrófono a dar cuenta de los ensayos clínicos y metaensayos que avalan la eficacia del producto, su intervención tendría sentido. Pero no es así. Y hoy el argumento de autoridad no basta.

Sin embargo, este continúa siendo un debate dentro de la comunidad médica. El mes pasado conté aquí un artículo aparecido en la última edición navideña de la revista BMJ, siguiendo esa tradición de algunas publicaciones médicas de cerrar el año con temas humorísticos. Sus autores describían el primer ensayo clínico comparando el efecto de utilizar un paracaídas al saltar de un avión con el de no usarlo.

Como expliqué, no era una simple gracieta: los investigadores se apoyaban en el ejemplo absurdo para argumentar la importancia de la medicina basada en ciencia, aquella que se guía exclusivamente por las conclusiones de los ensayos clínicos controlados y aleatorizados. Y lo hacían en respuesta a otro artículo anterior cuyos autores habían propuesto precisamente el mismo ejemplo absurdo para defender la medicina no basada en ciencia, aquella que se orienta por la experiencia profesional individual del médico, la plausibilidad biológica y el argumento de autoridad. Como en otros tiempos.

Evidentemente, ni un servidor ni otros miles más gozamos de la autoridad para decir a los médicos cómo tienen que hacer su trabajo. Pero soy un paciente. Y como tal creo que sí puedo reclamar esto: mi derecho a poner mi salud y la de mi familia exclusivamente en manos de los profesionales que se ciñan a la medicina basada en ciencia. Que al menos mientras un médico siga teniendo el derecho legal a especiar sus prescripciones con unas gotas de homeopatía, acupuntura, risoterapia o reiki, yo tenga el derecho a estar advertido de ello para no pasar por su consulta.

Los detractores extremos de los alimentos transgénicos saben menos, pero piensan que saben más

La frase sobre estas líneas es, tal cual, el título del estudio que vengo a contar hoy. Pocas veces se encuentra un trabajo científico cuyo encabezado exprese de forma tan llana y transparente lo que expone. Así que, ¿para qué buscar otro?

Como conté aquí ayer, la ciencia está cada vez más implicada en las cosas que afectan a la gente, por lo que hoy es inexcusable que cada ciudadano cuente con la suficiente educación científica para entender el mundo que le rodea. Cuando falta esta educación, triunfa el rechazo como mecanismo de defensa frente a lo desconocido, y nos convertimos en fácil objeto de manipulación por parte de quienes siembran bulos y desinformación, sean cuales sean sus fines.

Uno de los ejemplos que mejor ilustran el papel crítico de esta educación es el de los alimentos transgénicos (genéticamente modificados, GM). Probablemente no muchas cuestiones de seguridad biológica han sido tan extensamente investigadas como los efectos de estas variedades vegetales sobre el medio ambiente y la salud humana y animal.

Manifestación antitransgénicos en Chile. Imagen de Mapuexpress Informativo Mapuche / Wikipedia.

Manifestación antitransgénicos en Chile. Imagen de Mapuexpress Informativo Mapuche / Wikipedia.

Como ya conté aquí en su día, en 2016 un informe de 400 páginas elaborado por más de 100 expertos de las academias de ciencia, ingeniería y medicina de EEUU resumió dos años de análisis de casi 900 estudios científicos publicados desde los años 80, cuando las variedades transgénicas comenzaron a cultivarse.

El veredicto era contundente: no existe ninguna prueba de que los cultivos GM sean perjudiciales para la salud humana o animal ni para el medio ambiente. Sin embargo y como aspecto menos favorable, los autores del informe concluían que los beneficios económicos para los agricultores han sido desiguales en diferentes países, lo mismo que el aumento de la producción esperado del uso de estas variedades (aunque otros estudios previos como este y este han mostrado que el balance es positivo tanto en incremento de las cosechas como en beneficios para los agricultores).

Por si estas pruebas no bastaran, en febrero de 2018 un grupo de investigadores del Instituto de Ciencias de la Vida y de la Universidad de Pisa (Italia) publicó un nuevo metaestudio que revisaba más 6.000 estudios previos, elaborados entre 1996 y 2016, para seleccionar específicamente aquellos que comparaban datos de campo rigurosos y extensos sobre el maíz transgénico y el no transgénico.

En consonancia con metaestudios previos, los resultados indicaban que no se han detectado daños medioambientales derivados del cultivo de maíz transgénico, y que se han demostrado “beneficios en términos de aumento de la cantidad y la calidad del grano”, con un incremento en las cosechas de entre un 5,6 y un 24,5% en las plantaciones de las variedades GM (tolerantes a herbicidas o resistentes a insectos).

Sumado a esto, los investigadores apuntaban que el maíz transgénico es una opción más saludable que el convencional, ya que contiene un 28,8% menos de micotoxinas (junto con un 30,6% menos de fumonisina y un 36,5% menos de tricotecenos), compuestos producidos por hongos contaminantes que son nocivos a corto plazo y potencialmente cancerígenos a largo. “Los resultados apoyan el cultivo de maíz GM, sobre todo debido al aumento de la calidad del grano y a la reducción de la exposición humana a micotoxinas”, escribían los autores. A ello se unen estudios previos que han estimado en un 37% la reducción del uso de pesticidas gracias a las variedades GM, lo que también disminuye los restos de estas sustancias en el producto final para el consumo.

Mazorcas de maíz de distintas variedades. Imagen de Asbestos / Wikipedia.

Mazorcas de maíz de distintas variedades. Imagen de Asbestos / Wikipedia.

Pese a todo ello, sería una ingenuidad confiar en que estos estudios u otros miles más consigan por fin disipar la feroz oposición de ciertos colectivos a los alimentos transgénicos. Pero ¿en qué se basa esta cerril negación de la realidad? La respuesta no parece sencilla, teniendo en cuenta que, según algún estudio, las personas defensoras de posturas pseudocientíficas o anticientíficas no tienen necesariamente un nivel educativo inferior al de la población general.

A primera vista, se diría que esto contradice lo que expliqué ayer sobre la necesidad de la educación científica. Pero solo a primera vista: la necesidad no es suficiencia; y en cualquier caso, lo que vienen a revelar estas observaciones es que el nivel medio de formación científica de toda la población en conjunto es deficiente. Y sin embargo, no toda la población en conjunto está abducida por la pseudociencia o la anticiencia.

Para explicar por qué unas personas sí y otras no, los expertos hablan de efectos como el sesgo cognitivo –básicamente, quedarse con lo que a uno le interesa, sin importar siquiera su nivel de credibilidad– o de la mentalidad conspiranoica (sí, esto existe: más información aquí y aquí). Para los conspiranoicos, nunca importará cuántos estudios se publiquen; para ellos, quienes exponemos la realidad científica sobre los alimentos transgénicos (incluido un servidor) estamos sobornados por las multinacionales biotecnológicas, incluso sin prueba alguna y pese a lo absurdo del planteamiento. Y todo hay que decirlo, la conspiranoia también puede ser un negocio muy rentable.

Sin embargo, todo lo anterior no termina de aclararnos una duda: si hablamos en concreto de los cultivos transgénicos y de sus detractores, ¿hasta qué punto estos conocen la ciencia relacionada con aquellos? Podríamos pensar, y creo que yo mismo lo he escrito alguna vez, que un conspiranoico es casi un experto amateur en su conspiranoia favorita, aunque sea con un sesgo cognitivo equivalente a medio cerebro arrancado de cuajo. Pero ¿es así, o es que simplemente creen ser conocedores de una materia que en realidad ignoran?

Precisamente estas son las preguntas que han inspirado el nuevo estudio, dirigido por Philip Fernbach, científico cognitivo especializado en marketing de la Universidad de Colorado (EEUU). Para responderlas, los investigadores han encuestado a más de 3.500 participantes en EEUU, Alemania y Francia, interrogándoles sobre su nivel de aceptación u oposición a los alimentos GM y sobre el conocimiento que ellos creen tener de la materia, contrastando los datos con un examen de nociones sobre ciencia y genética.

Y naturalmente, los resultados son los que ya he adelantado en el título extraído del propio estudio, publicado en la revista Nature Human Behaviour. Los investigadores escriben: “Hemos encontrado que a medida que crece el extremismo en la oposición y el rechazo a los alimentos GM, el conocimiento objetivo sobre ciencia y genética disminuye, pero aumenta la comprensión percibida sobre los alimentos GM. Los detractores extremos son los que menos saben, pero piensan que son los que más saben”.

Curiosamente, sucede lo mismo en los tres países incluidos en el estudio. Pero más curiosamente aún, ocurre algo similar con otro caso que los investigadores han empleado como comparación, el uso de ingeniería genética en terapias génicas destinadas a curar enfermedades. También en este caso quienes más se oponen son quienes menos saben, pero quienes creen saber más.

Más asombroso aún: el estudio confirma resultados previos de otro trabajo publicado en junio de 2018, en el que investigadores de las universidades de Pensilvania, Texas A&M y Utah Valley (EEUU) se hicieron las mismas preguntas sobre los activistas antivacunas y el (inexistente) vínculo entre la vacunación y el autismo en los niños. En aquella ocasión, los autores descubrían que quienes más fuertemente se oponían a las vacunas y defendían su relación con el autismo eran quienes menos sabían sobre las causas del autismo, pero también quienes creían conocer este terreno incluso mejor que los científicos y los médicos especialistas.

Un manifestante antivacunas en un mitin del movimiento ultraconservador estadounidense Tea Party. Imagen de Fibonacci Blue / Flickr / CC.

Un manifestante antivacunas en un mitin del movimiento ultraconservador estadounidense Tea Party. Imagen de Fibonacci Blue / Flickr / CC.

Claro que tantos resultados en la misma dirección no pueden obedecer a la simple casualidad; y es que, de hecho, todos ellos responden a un fenómeno detallado en 1999 por los psicólogos David Dunning y Justin Kruger. El llamado efecto Dunning-Kruger consiste en la incapacidad de valorar el propio conocimiento sobre algo que en realidad se desconoce; o dicho de otro modo, es la ignorancia de la propia ignorancia.

No se aplica solo a las materias científicas: el estudio de Dunning y Kruger describió el efecto aplicado a campos tan diversos como el conocimiento de la gramática inglesa, el razonamiento lógico y la habilidad para el humor. En resumen, el efecto Dunning-Kruger es una denominación más elegante y científica para lo que en este país viene conociéndose de forma vulgar e insultante como cuñadismo.

Según Fernbach, esta “psicología del extremismo” es difícilmente curable, ya que se da la paradoja de que quienes más necesitan conocimientos son quienes menos dispuestos están a adquirirlos, ya que se creen sobrados de ellos. Por tanto, lo más probable es que continúen cómodamente sumergidos en su ignorada ignorancia; otra razón más para explicar por qué la difusión de la ciencia no basta para acabar con las pseudociencias.

Al final, hemos llegado a descubrir lo que ya había descubierto Sócrates hace más de 24 siglos: el verdadero conocimiento comienza por ser consciente de la propia ignorancia. A partir de ahí, podemos empezar a aprender.

Bisfenol A, vacunas… Sin educación científica, es el país de los ciegos

Decía Carl Sagan que hoy una verdadera democracia no es posible sin una población científicamente educada. “Científicamente” es la palabra clave, la que da un sentido completamente nuevo a una idea que a menudo se ha aplicado a otra educación, la cultural.

Pero en cuanto a esto último, no por muy repetido es necesariamente cierto. Al fin y al cabo, la cultura en general es una construcción humana que no acerca a ninguna verdad per se; y sabemos además, creo que sin necesidad de citar ejemplos, que a lo largo de la historia pueblos razonablemente cultos han regalado su libertad en régimen de barra libre a ciertos sátrapas. Por tanto, es como mínimo cuestionable que cultura equivalga a democracia.

En cambio, la realidad –el objeto del conocimiento científico– no es una construcción humana, sino una verdad per se. A veces ocurre que cuando hablamos de “la ciencia” parece que nos estamos refiriendo a una institución, como “el gobierno” o “la Iglesia”. Pero no lo es; la ciencia es simplemente un método para conocer la realidad; por tanto, “la ciencia dice” no es “el gobierno dice” o “la Iglesia dice”; no es algo que uno pueda creer o no. “La ciencia dice” significa “es” (por supuesto, la ciencia progresa y mejora, pero también rectifica y se corrige; está en su esencia, a diferencia del gobierno y la Iglesia).

Por ejemplo, a uno puede gustarle más un color u otro, pero la existencia de la luz es incuestionable; no es algo opinable. Y sin embargo, la falta de un conocimiento tan obvio podría llevar a una visión deformada del mundo. Así lo contaba H. G. Wells en su relato El país de los ciegos, en el que un montañero descubre un valle andino aislado del mundo cuyos habitantes nacen sin la facultad de ver. El montañero, Núñez, trata de explicarles la visión, pero se encuentra con una mentalidad cerrada que solo responde con burlas y humillaciones. Así, Núñez descubre que en el país de los ciegos el tuerto no es el rey, sino un paria y un lunático.

Imagen de pixabay.com.

Imagen de pixabay.com.

Ignoro cuál era el significado que Wells pretendía con su relato. Se ha dicho que el autor quería resaltar el valor de la idiosincrasia de otras culturas, por extrañas o absurdas que puedan parecernos, y la necesidad de respetarlas sin imponer la nuestra propia. Lo cual podría ser una interpretación razonable… si el autor fuera otro.

Pero no encaja con Wells. Científico antes que escritor, era un entusiasta de las posibilidades de la ciencia para mover el mundo y mejorar las sociedades. En una ocasión escribió sobre el “poder cegador” que el pasado puede tener en nuestras mentes. Y por si quedara alguna duda, en 1939 añadió un nuevo final a su relato de 1904: en la versión original, Núñez terminaba escapándose sin más. Sin embargo, en su posterior director’s cut contaba cómo Núñez, en su huida, observaba que un corrimiento de tierra amenazaba con arrasar el valle. Advertía a sus habitantes, pero una vez más se reían de aquella imaginaria facultad suya. Como resultado, el valle quedaba destruido. Así, parece claro que El país de los ciegos no habla de la multiculturalidad, sino de la ignorancia frente a la ciencia: Núñez puede equivocarse, pero ve.

Si este es el verdadero sentido del relato, entonces Wells se adelantó una vez más a su tiempo, como hacía en sus obras de ciencia ficción. En su día mantuvo un acerado debate con George Orwell, un escéptico de la ciencia –1984 es una distopía tecnológica, con sus telepantallas al servicio del Gran Hermano–. Ambos vivieron en una época de grandes cambios; uno de ellos fue que la ciencia dejó de ser algo que solo interesaba a los científicos, con sus discusiones sobre la estructura de los átomos y la evolución de las especies, para comenzar a estar cada vez más implicada en las cosas que afectan a la gente: en aquella época, Segunda Guerra Mundial, podían ser cosas como el triunfo contra las infecciones –la penicilina–, la energía –el petróleo– o la tecnología bélica –la bomba atómica–.

Años después, fue Sagan quien recogió este mismo testigo, porque la ciencia continuaba aumentando su implicación en esas cosas que afectan a la gente. En 1995, un año antes de su muerte, escribía en su libro El mundo y sus demonios:

Hemos formado una civilización global en la que la mayoría de los elementos más cruciales –transportes, comunicaciones y todas las demás industrias; agricultura, medicina, educación, entretenimiento, protección del medio ambiente; e incluso la institución democrática clave, el voto– dependen profundamente de la ciencia y la tecnología. También hemos hecho las cosas de modo que casi nadie entiende la ciencia y la tecnología. Esta es una prescripción para el desastre. Podemos salvarnos durante un tiempo, pero tarde o temprano esta mezcla combustible de ignorancia y poder va a estallarnos en la cara.

Una aclaración esencial: con este discurso, Sagan no trataba de ponderar la importancia de la ciencia en la democracia. Bertrand Russell escribió que “sin la ciencia, la democracia es imposible”. Pero lo hizo en 1926; desde que existen la ciencia moderna y la democracia, han sido numerosos los pensadores que han trazado sus estrechas interdependencias. Pero lo que Sagan subrayaba –y junto a él, otros como Richard Feynman– es la imperiosa necesidad de una cultura científica para que la población pueda crecer en libertad, a salvo de manipulaciones interesadas.

Hoy ese repertorio de cosas de la ciencia que afectan a la gente no ha cesado de crecer y hacerse más y más prevalente. El cambio climático. La contaminación ambiental. Las nuevas epidemias. Las enfermedades emergentes. Las pseudomedicinas. El movimiento antivacunas. La nutrición sana. El riesgo de cáncer. La salud cardiovascular. El envejecimiento, el párkinson y el alzhéimer. Internet. Los teléfonos móviles. Y así podríamos continuar.

Y sin embargo, no parece evidente que el nivel de cultura científica haya crecido, lo que no hace sino subir la temperatura de esa mezcla combustible de la que hablaba Sagan. Cualquier estudio irrelevante que no ha descubierto nada nuevo puede disfrazarse de noticia, y venderse arropándolo convenientemente con un titular suficientemente alarmista. La manipulación explota el temor que nace de la ignorancia, y es rentable; los clics son dinero. Porque en realidad, ¿quién diablos sabe qué es el bisfenol A?

Un ticket de papel térmico. El calor hace que se oscurezca. Imagen de IIVQ - Tijmen Stam / Wikipedia.

Un ticket de papel térmico. El calor hace que se oscurezca. Imagen de IIVQ – Tijmen Stam / Wikipedia.

El del bisfenol A (BPA) –y aquí llega la percha de actualidad– es uno de los dos casos de esta semana que merece la pena comentar sobre esas cosas de la ciencia que afectan a la gente. Con respecto a los riesgos del BPA, nada ha cambiado respecto a lo que conté aquí hace más de cuatro años, y recuerdo: “La exposición típica al BPA procedente de todas las fuentes es unas 1.000 veces inferior a los niveles seguros establecidos por las autoridades gubernamentales en Estados Unidos, Canadá y Europa”.

Y por otra parte, descubrir que los tiques de la compra contienen BPA es como descubrir que el zumo de naranja lleva naranja; el BPA se emplea como revelador en la fabricación del papel térmico, no aparece ahí por arte de magia. En resumen, un titular como “No guarde los tiques de compra: contienen sustancias que provocan cáncer e infertilidad” es sencillamente fake news, aunque se publique en uno de los diarios de mayor tirada nacional.

El segundo caso tiene implicaciones más preocupantes. Esta semana hemos sabido que una jueza ha dado la razón a una guardería municipal de Cataluña que denegó la admisión a un niño no vacunado por decisión de sus padres. Casi sobra mencionar que en este caso la ignorancia cae de parte de los padres, convirtiéndolos en víctimas fáciles de la manipulación de los movimientos antivacunas. Al parecer, durante la vista los padres aseguraron que los perjuicios de la vacunación superan a sus beneficios, como si el beneficio de conservar a su hijo vivo fuera superable.

Por suerte, en este caso la jueza ha actuado bien informada, denegando la matriculación del niño por el riesgo que comportaría para sus compañeros. Pero no siempre tiene por qué ser así. A los jueces no se les supone un conocimiento científico superior al nivel del ciudadano medio. Y si este nivel es excesivamente bajo, las repercusiones de esta carencia pueden ser especialmente graves en el caso de quienes imparten justicia, ya que un juez con una educación científica deficiente puede también ser víctima de manipulación por parte de presuntos asesores o peritos guiados por intereses anticientíficos.

Mañana contaré otro caso concreto de cómo la falta de información y formación científica es la raíz de uno de los mitos más clásicos y extendidos sobre cierto avance tecnológico de nuestro tiempo.

El avance de China amenaza con oscurecer la ciencia

El pasado día 3, cuando la sonda china Chang’e 4 se posó en la Luna, la televisión china CGTN y el diario China Daily publicaron sendos tuits anunciando el éxito de la misión. Un par de minutos después los retiraron. No fue hasta una hora después cuando la noticia volvió a aflorar, esta vez sin rectificaciones.

Naturalmente, los tuits en falso son algo habitual, y pueden deberse a infinidad de motivos. Pero cuando se trata de China, entre estos posibles motivos siempre destaca la sospecha del control y la censura de los medios por parte del gobierno. Aunque esto se da por supuesto cuando se trata de política, el progresivo ascenso de China hacia el primer puesto de la ciencia mundial amenaza con empañar la transparencia que es mecanismo esencial para que funcionen los engranajes del avance científico.

Imagen de David Shankbone / Wikipedia.

Imagen de David Shankbone / Wikipedia.

Claro que es justo reconocer el esfuerzo de China por adaptarse a los estándares internacionales de transparencia en la ciencia; no les queda otro remedio, ya que de lo contrario su producción científica no podría homologarse a la de otros países, no se publicaría en las revistas por las que debe pasar la ciencia para ser tal y por tanto China no entraría en esa carrera en el ranking global.

Pero esa apertura está muy lejos de ser suficiente. De hecho, en muchos casos es pura chapa y pintura: en el mundo de la ciencia se sabe que, por ejemplo, la regulación ética de la investigación en China es aproximadamente tan vinculante como un matrimonio oficiado por Carlos Sobera. Cuando el pasado noviembre el científico He Jiankui anunciaba el nacimiento de dos bebés con genomas retocados, las autoridades chinas reaccionaban con una indignación exagerada y algo teatral, teniendo en cuenta que los experimentos de He constaban en el registro de los proyectos teóricamente sometidos a aprobación ética.

Para rematar la faena, las autoridades chinas parecen haber recluido a He en arresto domiciliario bajo la custodia de hasta una docena de guardas armados, según han publicado varios medios, algunos de los cuales han intentado contactar con él sin éxito. Incluso se dice que podría enfrentarse a una sentencia de muerte. Todo ello sin haber cometido ningún delito; como máximo, He habría quebrantado un código ético, lo que podría justificar una sanción administrativa o económica y hasta su expulsión de la universidad, pero jamás una condena penal, y ya ni hablar de una ejecución. O una “desaparición”.

Pero volviendo a la Chang’e 4, el progreso de China en la exploración espacial plantea una situación muy diferente a la que hemos vivido cuando el liderazgo en el espacio lo ostentaba EEUU (sería discutible si lo ha perdido, pero no que lo está perdiendo). Con todos sus defectos, si algo no se puede reprochar a la administración espacial estadounidense es su falta de transparencia. La maquinaria de comunicación de la NASA es un brillante modelo de esfuerzo informativo y divulgativo. Gracias a ello hemos podido asistir a todos los logros de EEUU en el espacio en primera fila, con retransmisiones en directo y siempre con una información exhaustiva e inmediata.

¿Y China? Algo hemos mejorado: antes de la Chang’e 4 ni siquiera solían informar puntualmente de los lanzamientos ni de los hitos de las misiones, ya no digamos retransmitirlos en directo. Esto es lo que escribía el periodista científico Stephen Chen en el periódico South China Morning Post, el diario de referencia de Hong Kong en lengua inglesa, a propósito del alunizaje de la Chang’e 4. “Plenamente consciente de los riesgos involucrados en la misión Chang’e 4, China decidió no retransmitirla en directo para reducir la presión sobre los científicos e ingenieros involucrados, según un investigador con conocimiento de la materia”. Y si existe una web de la misión en la que se publique toda la información relevante y los datos recogidos por la sonda, desde luego yo no he sido capaz de encontrarla.

Todo lo cual, en último término, convierte la información sobre las misiones espaciales chinas en algo más parecido a rumores que a verdadera información, al menos hasta que se publiquen formalmente los resultados científicos, que pueden tardar meses. Si es que se publican. Mañana contaré un ejemplo concreto que ilustra cómo lo difundido sobre un experimento de la Chang’e 4 no solo es confuso, sino probablemente incorrecto.

La reconquista de la Luna, la gran carrera del siglo

La sonda china Chang’e 4 ha sido la primera en posarse sana y salva en la cara oculta de la Luna, la que permanece siempre invisible para nosotros debido al llamado acoplamiento de marea, que sincroniza la rotación lunar con su tránsito alrededor de la Tierra. En esta cara lunar solo existe otro artefacto humano, la Ranger 4 estadounidense, que en 1962 se estrelló según lo previsto, pero sin enviar datos a causa de una avería durante el descenso.

No es la primera vez que China conquista la Luna. En 2009 la Chang’e 1 fue estrellada deliberadamente contra la superficie lunar después de 16 meses en órbita. Su sucesora, la Chang’e 2, orbitó la Luna antes de partir para explorar el asteroide Tutatis. En 2013 la Chang’e 3 se posó en la cara lunar visible con su rover Yutu, siendo la primera misión en operar sobre la superficie del satélite terrestre desde la sovietica Luna 24 en 1976.

El rover Yutu 2, tras su descenso al suelo desde la sonda Chang'e 4. Imagen de CNSA.

El rover Yutu 2, tras su descenso al suelo desde la sonda Chang’e 4. Imagen de CNSA.

Sin embargo y a pesar de la novedad que supone pisar la cara oculta de la Luna –este hemisferio ya había sido fotografiado numerosas veces por sondas orbitales rusas y estadounidenses–, en realidad la Chang’e 4 es una repetición de la Chang’e 3, una misión de transición hacia el siguiente paso del programa lunar chino: traer muestras lunares a la Tierra, algo que hizo por última vez la Luna 24 y que será el objetivo de la Chang’e 5 en diciembre de este año y de la Chang’e 6 en 2020. Más adelante, en la década de los 30, llegará el gran salto de China a la Luna con las misiones tripuladas y la posible construcción de una estación lunar.

Desde que EEUU y la antigua URSS abandonaron la Luna como objetivo de sus landers (sondas aterrizadoras), el satélite terrestre se ha convertido en la meta de otras potencias emergentes. El próximo mes está previsto que India e Israel lancen sus respectivas misiones lunares no tripuladas, Chandrayaan 2 y Beresheet. Tras el retraso de la misión india, cuyo despegue estaba previsto para comienzos de este mes, ambas naciones compiten ahora por ser la cuarta del mundo que posa un aparato en la superficie lunar.

Otro país que quiere unirse al club lunar es Japón; después de la cancelación de la misión SELENE/Kaguya 2, la agencia nipona JAXA ha revitalizado el programa lunar con la intención de enviar una sonda robótica en un par de años y con la aspiración de plantear quizá más adelante misiones tripuladas.

Primera imagen de la superficie lunar enviada por la sonda china Chang'e 4. Imagen de CNSA.

Primera imagen de la superficie lunar enviada por la sonda china Chang’e 4. Imagen de CNSA.

Así, parece que para la próxima década se abre una nueva carrera lunar; pero a diferencia de la que EEUU y la URSS libraron en el siglo pasado, esta vez el motivo de conquistar la Luna no es meramente plantar una bandera, sino que también hay dinero en juego, el que puede rendir la explotación de los recursos lunares para el primero que se haga con ellos. Obviamente, este no es un objetivo inmediato, pero en el camino se abren grandes oportunidades de negocio para quienes aporten la tecnología necesaria. Es el viejo dicho: si hay fiebre del oro, vende palas.

Todo ello ha llevado a las potencias tradicionales a desempolvar sus programas lunares. EEUU, la Unión Europea y Rusia han reaccionado con nuevos planes y alianzas para no perder la posición de cabeza en la que promete ser, por ahora, la gran carrera espacial de este siglo.

Pero para quienes seguimos esta carrera desde las sillas de la grada, no será indiferente quién se lleve los triunfos. Según reflejaba esta semana el South China Morning Post, el diario de referencia de Hong Kong en lengua inglesa, algunos observadores chinos ven en esta nueva carrera una extensión de la actual guerra comercial entre China y EEUU. Y como contaré mañana, la ciencia y la exploración espacial pueden ser las víctimas inocentes de la opacidad informativa que envuelve toda guerra.

Un estudio investiga el gran ‘spoiler’ de nuestra infancia sobre la “magia” de la Navidad

Siguiendo con mi línea de ayer, ¿por qué la RAE no acepta el término “spoiler“? Parece claro que su uso está muy extendido y que no va a desaparecer ni a ser reemplazado por una traducción. En algún momento los académicos deberán percatarse de que “no me hagas una descripción de un importante desarrollo de la trama de una serie/película/libro que si se conoce de antemano puede reducir la sorpresa o el suspense para quien la ve o lee por primera vez” (según la definición del diccionario de inglés de Oxford) es una frase que sencillamente no va a ocurrir (no, “no me cuentes el final” no es equivalente, ya que los spoilers no tienen por qué referirse necesariamente al final).

Pero en fin, a lo que voy: uno de los spoilers más memorables de la realidad de nuestras vidas es el que nos llega durante la infancia y que nos desvela cuál es la maquinaria real de esa magia de la Navidad. Es una revelación de tal trascendencia que muchos recuperamos aquella memoria durante toda nuestra vida, y la compartimos: y tú, ¿cómo te enteraste?

Imagen de pixabay.

Imagen de pixabay.

Sin embargo y curiosamente, ha sido una experiencia relativamente ignorada por los estudios, hasta que el psicólogo Chris Boyle, de la Universidad de Exeter (Reino Unido), decidió emprender la primera gran encuesta. La Exeter Santa Survey, actualmente en progreso, “tiene como objetivo obtener una mejor comprensión de las diferentes creencias que las personas tienen en torno a Papá Noel y a la Navidad”, dice la web del proyecto. Por cierto, estoy copiando literalmente en castellano; la encuesta tiene versión en nuestro idioma, por lo que pueden participar si les apetece. Imagino que a Boyle no le importará si en nuestro caso las respuestas se refieren a los Reyes Magos.

Boyle añade: “Mi interés se centra en comprender cómo se siente un niño/a cuando se entera de que Papá Noel xxxxxxxx” (elimino la última parte para no incurrir aquí en ese spoiler). “Por ejemplo, ¿qué edad tenías cuando te enteraste? ¿Viviste la Navidad de forma diferente después de eso? Este proyecto pretende ser una investigación informal sobre el fenómeno de Papá Noel y espero que puedas participar”.

Aunque el proyecto está en curso, las 1.200 respuestas ya reunidas han proporcionado a Boyle el suficiente volumen de información para extraer algunas conclusiones parciales. Por ejemplo, la media de edad a la que los niños suelen acceder al secreto mejor guardado de la Navidad: ocho años. Recordemos que la encuesta está dirigida a los adultos, por lo que los datos se refieren a tiempos pasados, no a los actuales. Al menos en mi sola experiencia personal y por lo que veo en mi entorno, hoy puede que este momento se haya retrasado, lo cual es una paradoja en estos tiempos de mayor acceso a la información; paradoja que tal vez se explique porque también son tiempos de mayor sobreprotección de los niños.

En cuanto al cómo, las respuestas son muy variadas. “La causa principal es la acción deliberada o accidental de los padres, pero algunos niños empezaron a unir las piezas por sí mismos a medida que crecían”, dice Boyle. El investigador cuenta cómo algunos errores de los padres descubren el pastel: un participante los descubrió disfrutando de las viandas y las bebidas que un rato antes habían colocado para Papá Noel y sus renos. Otro los pilló con las manos en la masa tras el estrépito causado cuando a su padre se le cayó uno de los regalos.

En otros casos la torpeza cayó a cargo de los profesores, como cuando eligieron para interpretar el papel del mismísimo y único Papá Noel a uno de ellos a quien los niños conocían sobradamente. Otro contó a sus alumnos de siete años que en el Polo Norte no vivía nadie, una metedura de pata con difícil vuelta atrás. Pero peor fue el caso de otro profesor que, seguramente sin mala intención, pidió a sus alumnos de siete años que escribieran una redacción sobre cómo descubrieron la verdad sobre Papá Noel.

En casos como estos últimos, los padres pierden el control de la situación, como cuando el rumor comienza a extenderse entre los propios niños. Algunos logran inmunizarse contra lo que consideran un flagrante ejemplo de fake news: un participante contó que a los siete años pegó a otro niño por tratar de convencerle de aquella absurda hipótesis, y continuó creyendo en la versión oficial durante tres años más.

En cuanto a la labor detectivesca de los propios niños, un participante contó que reconoció uno de los regalos para su hermana, que había visto en las semanas previas en la habitación de sus padres. Otro fue lo suficientemente astuto para percatarse de que la caligrafía de Papá Noel y la de su padre eran sospechosamente idénticas, mientras que otro encontró las cartas en la habitación de sus padres después de haber sido presuntamente enviadas a su destinatario. Los niños también ataron cabos cuando unos padres algo despistados dejaron las etiquetas de los precios en los regalos, o firmaron un libro destinado a uno de sus hijos como “mamá y papá”.

Imagen de pixabay.

Imagen de pixabay.

Pero sin duda el premio al joven científico lo merece el encuestado que a los nueve años “había aprendido lo suficiente sobre matemáticas, física, viajes y la relación entre el número de niños del planeta y el tamaño del trineo”. O el que decidió poner en marcha su propio experimento independiente, enviando una carta sin conocimiento de sus padres; ni uno solo de los juguetes de aquella lista apareció al pie del árbol. O el que notó la imposibilidad de que un hombre notablemente obeso pudiera deslizarse por el hueco de su chimenea… sobre todo, estando encendida.

Por su parte, el premio a la sensatez se lo lleva el niño al cual, a sus ocho años, nadie supo explicar “por qué Papá Noel no llevaba comida a los niños de los países pobres”. Finalmente, uno de los casos más curiosos es el del niño de cinco años a quien sus padres tuvieron que tranquilizar porque le aterrorizaba la idea de que un extraño allanara su casa en plena noche.

Quizá la faceta más llamativa del estudio es la que descubre cómo reaccionan los niños cuando conocen la realidad de esa magia navideña: la tercera parte de los encuestados recibieron la noticia con disgusto, pero un 15% se sintieron traicionados por sus padres y un 10% incluso furiosos; a un 30% aquella revelación les minó su confianza en los adultos. “En los últimos dos años me he sentido apabullado por la cantidad de gente cuya confianza resultó afectada”, dice Boyle. En el otro extremo están los más pragmáticos, el 65% que prefirió no darse por enterado y seguir actuando como si no hubiera pasado nada.

Lo cual es sin duda una manera bastante conveniente de afrontar esa transición a la madurez; según el estudio de Boyle, a un 34% de los encuestados les encantaría volver a creer en Papá Noel, pero también un 72% de los padres se sienten aliviados de revelar la verdad a sus hijos y, pese a todo, continúan representando esa ceremonia anual dejándose llevar por el juego y la ilusión de estas fechas. Al fin y al cabo, nada nos impide seguir disfrutando de la fantasía… siempre que sepamos distinguirla de la realidad. Y siempre que no confiemos en ella para que nos deje al pie del árbol nada más milagroso que una guitarra nueva, si he sido lo suficientemente bueno este año.

Célula de español científico: no existen las enfermedades “severas” (según el diccionario)

En 2011, cuando Twitter llevaba cinco años funcionando y estaba en pleno auge, la Real Academia Española justificaba la no inclusión en el diccionario de nuevos términos como “tuitear” alegando que “el Diccionario de la RAE recoge el uso real de la lengua, no las modas, que son efímeras. ¿Y si en 2 años ya no “tuiteamos”?”, decía.

Pero solo un año después, la RAE anunciaba la incorporación al diccionario de “tuitear” y sus términos relacionados.

La RAE dice tener como objetivo reflejar el uso de las palabras, o sea, un criterio reactivo, y no ordenar estos usos, o sea, un criterio proactivo. Lo cual parece bastante razonable. Pero ¿cuánto tiempo considera la RAE que debe transcurrir para que una moda se convierta en un uso consolidado? ¿Un año? ¿Un siglo? Evidentemente, es imposible objetivar este criterio. Pero ¿por qué la RAE arrincona palabras cuyo uso está más que consolidado por el paso del tiempo, y en cambio solo las contempla precisamente cuando se ponen de moda? Es decir, justo lo contrario de lo que dice hacer.

Un ejemplo: hace unos días la RAE ha anunciado la incorporación al diccionario de varios términos asociados con el uso de las redes sociales o con tendencias que han cobrado fuerza en los últimos años. Entre ellos se encuentran “meme”, “selfi”, “escrache” o “sororidad”.

 

Pero la palabra “meme” no es ni mucho menos nueva. La acuñó en 1976 el biólogo evolutivo Richard Dawkins en analogía a “gene” (gen); del mismo modo que un gen es una unidad de información genética que se transmite, un meme es una unidad de información cultural que se transmite. La teoría del meme se ha discutido durante décadas en los círculos académicos; su uso estaba mucho más que consolidado antes de que se aplicara a los gifs de gatitos. Y sin embargo, la RAE la ha ignorado hasta que se ha puesto de moda a través de las redes sociales.

Casos como este, con las contradicciones que conllevan en el discurso de la RAE, son llamativos cuando ignoran usos consolidados de las palabras que sin duda deberían entrar en el diccionario, pero que no lo hacen por vaya usted a saber qué razones; ¿porque no son trending topic? Y que al no hacerlo están obligando a quienes emplean estos usos consolidados a expresarse incorrectamente.

El ejemplo que traigo hoy aquí es la palabra “severo”. Según el diccionario de la RAE, significa “riguroso, áspero, duro en el trato o el castigo”, o bien “exacto y rígido en la observancia de una ley, un precepto o una regla”, o también “dicho de una estación del año: Que tiene temperaturas extremas. El invierno ha sido severo”.

Es decir, que al contrario de lo que ocurre en inglés, según el diccionario oficial del español es incorrecto hablar de una “enfermedad severa” o de “síntomas severos”, ya que este uso no está recogido. Una enfermedad como la que en inglés se denomina Severe Combined Immunodeficiency (SCID) en castellano debe traducirse como inmunodeficiencia combinada grave, ya que no puede emplearse la palabra “severa” en este contexto.

Claro que quizá algunos podrían argumentar que, si para este uso tenemos la palabra “grave”, que el diccionario sí acepta para referirse a las enfermedades como “grande, de mucha entidad o importancia”, y por lo tanto la acepción ya está cubierta, ¿qué necesidad hay de aceptar este mismo significado para el término “severa”?

Sí, claro. Muy razonable. Si no fuera porque los médicos han utilizado “severo” en este contexto durante tanto tiempo que nadie podría discutir que se trata de un uso totalmente consolidado. ¿Y no habíamos quedado en que “el Diccionario de la RAE recoge el uso real de la lengua”?

Por fin, un ensayo clínico compara el efecto de usar o no un paracaídas al saltar de un avión

En 2003 dos investigadores británicos se propusieron reunir todos los ensayos clínicos existentes en la literatura médica que comparasen el efecto de usar un paracaídas al saltar de un avión con el de no utilizarlo. Su propósito era llevar a cabo un metaestudio, es decir, un estudio de estudios, con el fin de llegar a una conclusión estadísticamente fiable sobre si este adminículo protegía más de los daños de la caída que su ausencia. Pero para su sorpresa, los investigadores no encontraron ni un solo estudio clínico que hubiera evaluado tal extremo.

Si leyeron la anterior entrega de este blog, o conocen la costumbre festiva navideña de ciertas revistas médicas, ya habrán adivinado que se trataba de uno de esos estudios que se publican por estas fechas y que sacan de las entrañas de los médicos su sentido del humor, que muchos de ellos ocultan durante el resto del año (no, yo nunca he escrito esto, debe de ser un error informático). El estudio, en efecto, formaba parte de la edición navideña del BMJ (British Medical Journal), y ha perdurado como uno de los más celebrados por los fanes del humor biomédico.

Sin embargo, el estudio no era una broma inocente sin más, sino que iba cargado de metralla: los autores, Gordon Smith, ginecólogo de la Universidad de Cambridge, y Jill Pell, consultora del Departamento de Salud Pública en Glasgow, pretendían ridiculizar la medicina basada en pruebas, que solo valida la utilidad de un fármaco o procedimiento médico cuando ha superado un ensayo clínico controlado y aleatorizado, en el que se compara la intervención con un placebo de forma aleatoria en un grupo amplio de pacientes.

El argumento que Smith y Pell defendían era que en muchos casos la experiencia de los facultativos y sus observaciones directas, junto con la plausibilidad biológica (una forma pomposa de llamar al sentido común aplicado a la biomedicina), bastan para certificar los beneficios de un tratamiento médico. Incluso teniendo en cuenta que existen casos de heridas provocadas precisamente por el paracaídas (debido a defectos de funcionamiento o mal uso), y que hay datos documentados de personas que han sobrevivido a una caída desde un avión sin emplear este dispositivo, a nadie se le ocurriría emprender un ensayo clínico para comparar su uso y su no uso: la experiencia y la plausibilidad son suficientes para entender que es una mala idea saltar desde un avión sin paracaídas.

“El uso extendido del paracaídas debe de ser solo otro ejemplo de la obsesión de los médicos con la prevención de enfermedades y de su errónea creencia en tecnología no probada para proporcionar protección eficaz contra fenómenos adversos ocasionales”, ironizaban Smith y Pell, para concluir: “Quienes abogan por la medicina basada en pruebas y critican el uso de intervenciones no basadas en ellas no dudarán en demostrar su compromiso ofreciéndose voluntarios para un ensayo doble ciego aleatorizado y controlado con placebos”.

Un paracaidista. Imagen de pixabay.

Un paracaidista. Imagen de pixabay.

Pero la sátira de Smith y Pell, que se ha convertido en un clásico citado a menudo por algunos médicos para defender su prescripción de tratamientos no avalados por ciencia sólida, ha encontrado respuesta ahora, en la presente edición navideña del BMJ. Y la réplica es, por fin, el primer ensayo clínico aleatorizado, bautizado como PARACHUTE, sobre la eficacia del paracaídas frente a la falta de él.

Los investigadores, dirigidos por el cardiólogo Robert Yeh del centro médico Beth Israel Deaconess de la Universidad de Harvard, reclutaron a 23 voluntarios participantes para saltar desde un avión o un helicóptero; 12 de ellos saltaron con un paracaídas, y los 11 restantes con una mochila vacía. Aunque las condiciones se aleatorizaron entre los sujetos, el estudio no fue doble ciego, si bien en este caso los autores no esperaban una llamativa influencia del efecto placebo.

Los resultados son claros: al cuantificar las muertes o los daños traumáticos sufridos por los voluntarios después de la caída, no se encontraron diferencias entre quienes portaban un paracaídas o quienes llevaban una mochila vacía. Una vez recopilados los datos y aplicado un programa de tratamiento estadístico, se observó que en ambas condiciones los daños fueron del 0%, tanto cinco minutos después del salto como a los 30 días del estudio. “El uso del paracaídas no redujo significativamente la muerte o los daños”, concluyen los autores.

Sin embargo, admiten que el estudio adolece de una importante limitación: a diferencia de lo que sucede con otras personas que saltan con paracaídas y que no han participado en la investigación, “los participantes en el estudio iban en aeronaves a una altitud significativamente menor (una media de 0,6 metros para los participantes frente a una media de 9.416 metros para los no participantes) y a menor velocidad (media de 0 km/h frente a media de 800 km/h)”.

Es decir, que los participantes saltaron desde aeronaves que estaban paradas en tierra. Por lo tanto, los autores reconocen que este hecho “puede haber influido en los resultados del ensayo”, y recomiendan “cautela en la extrapolación a saltos a gran altitud”. “Nuestros hallazgos pueden no ser generalizables al uso de paracaídas en aeronaves que viajan a mayor altura o velocidad”, concluyen.

Imagen de una de las participantes en el estudio durante su salto con una mochila vacía. El estudio aclara que no sufrió muerte ni grandes daños a resultas de su impacto con el suelo. Imagen de Yeh et al / BMJ.

Imagen de una de las participantes en el estudio durante su salto con una mochila vacía. El estudio aclara que no sufrió muerte ni grandes daños a resultas de su impacto con el suelo. Imagen de Yeh et al / BMJ.

Pero naturalmente, detrás de todo esto hay también una moraleja, que responde con astucia y elegancia al estudio previo de Smith y Pell. A primera vista, una interpretación simple podría extraer el resumen de que los ensayos clínicos no tienen la menor utilidad, que sus resultados son basura y que dicen lo que sus autores quieren que digan, como suelen defender los conspiranoicos y los detractores de la medicina basada en pruebas. Pero de eso se trata: todo esto es cierto… cuando los ensayos están mal diseñados, cuando su planteamiento responde a un sesgo destinado a demostrar lo que ya se ha decidido previamente.

Esto es precisamente lo que ocurre con la medicina no avalada por pruebas, con las decisiones clínicas basadas solo en la experiencia de los facultativos, en sus observaciones directas y en la plausibilidad biológica: el estudio muestra que, fuera de su contexto general, aquello que a un médico parece funcionarle en sus condiciones particulares no es necesariamente extrapolable a todos los casos.

En concreto, Yeh y sus colaboradores subrayan un frecuente error debido a estos prejuicios, y es que la creencia en la eficacia de un tratamiento, no apoyada en ensayos clínicos rigurosos, lleva a algunos médicos a incluir en el estudio solo a los pacientes de bajo riesgo, ya que consideran poco ético negar una intervención que ellos creen eficaz a los enfermos en situación más crítica. En el ejemplo del ensayo PARACHUTE (que los autores trataron de inscribir en el registro de ensayos clínicos de Sri Lanka, pero que fue rechazado), los pacientes de bajo riesgo son aquellos que saltan desde aeronaves paradas en tierra; los de alto riesgo son quienes lo hacen desde aviones a 10.000 metros de altura.

“Cuando existen creencias en la comunidad sobre la eficacia de una intervención, los ensayos aleatorizados pueden reclutar selectivamente a individuos para los que se percibe una probabilidad baja de beneficio, reduciendo así la aplicabilidad de los resultados en la práctica clínica”, escriben los autores. Así, estas creencias pueden “exponer a los pacientes a riesgos innecesarios sin un claro beneficio”. “Las creencias basadas en la opinión experta y la plausibilidad biológica se han probado erróneas por posteriores evaluaciones aleatorizadas y rigurosas”, añaden.

Y todo ello, claro está, teniendo en cuenta que en realidad la mayoría de los tratamientos médicos “probablemente no serán tan eficaces para lograr sus fines como lo son los paracaídas en prevenir los daños cuando se salta desde un avión”. Lo cual viene a decir que citar el ejemplo del paracaídas para atacar la medicina basada en pruebas es simplemente un disparate.

En definitiva, Yeh y sus colaboradores admiten que los ensayos clínicos pueden tener sus limitaciones; pero parafraseando lo que decía Churchill sobre la democracia, la ciencia tal vez sea la peor manera de aproximarnos a la verdad, exceptuando todas las demás alternativas que ya se han probado.

Célula de español científico: “pivotal” no existe

Hace unos días les hablaba aquí de una expresión, seminal study, que es común en el inglés científico para designar estudios que han influido poderosamente en el desarrollo de una nueva línea científica; y que no debe traducirse literalmente al español, ya que en nuestro idioma “seminal” tiene exclusivamente un significado más… bueno, más seminal.

Lo cual, en cierto modo, fue una sorpresa incluso para mí: hace unos días, mientras recogía documentación para un reportaje, leí otro que escribí hace varios años sobre el mismo tema, y ahí me encontré con la horma de mi zapato: en el texto mencionaba un “experimento seminal”. Y no, no tenía nada que ver con el semen. Utilizar esta palabra en un contexto figurado viste mucho, pero quienes nos dedicamos a escribir debemos hacer un esfuerzo de rigor en el uso del lenguaje. Y salvo cuando se trata de una licencia creativa, deberíamos abstenernos de otorgar a las palabras significados que no tienen en nuestro idioma. Será que con los años uno se vuelve más estricto, pero el diccionario está para consultarlo, y debo reprocharle a aquella versión más joven de mí que en aquella ocasión no lo hiciera.

Existe otro término que también se utiliza frecuentemente en inglés, que muchos científicos traducen literalmente cuando escriben en español, y que debería evitarse para un uso correcto del castellano. En inglés se habla de pivotal en referencia a algo que, según el Oxford Dictionary, es “de crucial importancia en el desarrollo o el éxito de algo”. Dentro de los muchos contextos en los que suele utilizarse, se habla también habitualmente de “pivotal study“.

Así, es frecuente leer textos científicos en español en los que se habla también de “estudio pivotal” o “experimento pivotal“. Pero en este caso no hay una confusión de significados, sino algo aún más determinante: la palabra “pivotal” no existe en castellano; no está recogida en el diccionario de la RAE. Es solo un palabro, un anglicismo innecesario, ya que existen muchos términos en nuestro idioma para expresar el mismo concepto: influyente, crucial, trascendental, clave…

Lo cual no implica que no pueda hablarse de “pivotar” como verbo en sentido figurado; el propio diccionario lo admite. Pivotar significa “moverse o apoyarse sobre un pivote”, o sea, un “extremo cilíndrico o puntiagudo de una pieza, donde se apoya o inserta otra, bien con carácter fijo o bien de manera que una de ellas pueda girar u oscilar con facilidad respecto de la otra”. Y dado que el sentido figurado es admisible, podría decirse que una línea de investigación pivota sobre un estudio concreto. El motivo por el que no debería decirse entonces que este estudio es “pivotal” es sencillamente porque la palabra no existe, del mismo modo que podemos hablar de sustancias estupefacientes o de quedarnos estupefactos, pero el verbo del que parecerían derivarse estas formas, estupefacer, no existe, aunque también se utilice por ahí.

La cuestión se complica por el hecho de que “pivotal” se emplea en inglés también de forma más específica para referirse a un ensayo clínico cuyo resultado es determinante para la aprobación de un nuevo fármaco o procedimiento, lo que ha llevado a importar su traducción literal al castellano también en la jerga farmacéutica y médica como estudio o ensayo pivotal. Este uso tiene la ventaja de que designa exclusivamente algo cuyo significado el lector entiende; el lenguaje científico se distingue por su correspondencia unívoca, un nombre para cada cosa y una cosa para cada nombre. Pero así como transcarbamilasa o neutralino son palabras que se inventan para designar conceptos nuevos y no puede esperarse que el diccionario las recoja todas (¿o sí?), pivotal es solo un engendro resultante de un uso perezoso del lenguaje, como forwardear o escribir “k” en lugar de “que”.

Célula de español científico: “Estudio seminal” no es lo mismo que en inglés

Los científicos hablan tan bien o tan mal como el resto de la gente de su mismo nivel cultural, pero en la ciencia existe una inevitable tendencia al Spanglish. Inevitable, no como en el mundo de la empresa, donde quien dice staff en lugar de personal, partner en vez de socio o hacer un break en vez de tomarse un descanso es simplemente un moron.

No, en ciencia es realmente inevitable: continuamente se están nominando conceptos nuevos que antes no existían, y como es lógico los nombres se eligen en inglés, la lengua global de la ciencia. Muchos de ellos se castellanizan para adaptarlos y acaban incorporándose al diccionario; por ejemplo, ribosoma o mitocondria.

En otros casos es más complicado: el complejo encargado de eliminar los trozos sobrantes de los genes se llama spliceosome, ya que esta función se denomina splicing, que significa literalmente empalmar o unir fragmentos separados. El término splicing entró al lenguaje científico español tal cual, sin adaptar ni traducir (pronunciado a la castiza como “esplaisin“); y aunque el spliceosome aparece por ahí referido como espliceosoma, en los laboratorios se oye hablar del “esplaiseosoma“, es decir, puro Spanglish.

Es más, en muchos casos la traducción no hace sino confundir. Durante mis años de estudiante tuve una profesora de genética molecular que había escrito un libro de texto en el que se traducía absolutamente todo, y los resultados eran bastante aberrantes. Por ejemplo, una técnica de marcaje de ADN denominada Nick translation, en la que un hueco en la cadena iba moviéndose a lo largo de esta, aparecía traducida literalmente como “traslado de la mella”. Muy correcto, pero tan equívoco como, en el fondo, inútil.

Debido a esta peculiar mezcla de castellano e inglés en los laboratorios hispanoparlantes, y a que los científicos escriben sobre todo en inglés, y a que los estudios (nadie los llama así, sino papers, y de hecho un paper no siempre es un estudio) usan un lenguaje muy estandarizado repleto de fórmulas sobadas y frases hechas, cuando los investigadores hablan o escriben en español tienden a cometer errores procedentes de traducciones demasiado literales que no se corresponden en sus significados en ambos idiomas (algo parecido a lo que suele llamarse false friends), o de la importación directa de estructuras gramaticales que en inglés son correctas, pero no en castellano.

En el último par de años he estado editando libros escritos por científicos españoles para la colección de National Geographic y RBA Desafíos de la Ciencia, y esta experiencia ha reforzado una tesis que sostengo en este blog: la separación tradicional de ciencias y letras como dos sustancias inmiscibles es un error del sistema educativo.

Hoy es más importante que nunca que los científicos hagan un esfuerzo de outreach, y perdón por el anglicismo que tampoco sé muy bien cómo traducir; si acaso, algo así como vinculación con la sociedad. Una parte sustancial de esta tarea consiste en la divulgación, y para ello es necesario adquirir la capacitación adecuada para comunicar y escribir correctamente. Las carreras de ciencias deberían incluir algún módulo o asignatura de redacción y comunicación científica, ya que actualmente debería ser una de las aptitudes de todo investigador.

Así que me he decidido a traer aquí, en forma de células esporádicas, algunos de los errores más comunes en los que suelen incurrir los científicos cuando escriben en castellano, según mi sola experiencia. No pretendo dar lecciones a nadie, porque lo que voy a contar no es mi opinión o mi juicio, sino el de la RAE. Como suelo decir aquí, las leyes que no vienen determinadas por fuerzas de la naturaleza, como es el caso de las normas léxicas o gramaticales, pueden cambiarse si quienes las dictan así lo deciden. Pero si tenemos un organismo regulador del uso del lenguaje, deberíamos hacer lo posible por ceñirnos a su criterio, a menos que tengamos una buena razón para no hacerlo; y el desinterés por conocer las normas o por aplicarlas no cuenta como buena razón.

El caso que les traigo hoy es el de una expresión que me canso de ver y corregir en los manuscritos de los científicos. En inglés se llama seminal study o seminal paper a un estudio que inaugura una nueva línea de investigación, técnica, disciplina… Por ejemplo, en 2012 Emmanuelle Charpentier y Jennifer Doudna publicaron su seminal study sobre el sistema de edición genómica CRISPR.

El inglés, a diferencia del español, no cuenta con un único diccionario oficial. Pero uno de los más seguidos y respetados, el de Oxford, recoge como primera acepción de la palabra seminal algo que “influye fuertemente en desarrollos posteriores”. El diccionario Merriam-Webster y el Collins, otros dos recursos fundamentales de la lengua inglesa, también recogen este significado. Así que en inglés es correcto hablar de “seminal study” en este sentido.

Pero no ocurre lo mismo en castellano. Según el diccionario de la RAE, “seminal” es “perteneciente o relativo al semen de los animales masculinos”, o “perteneciente o relativo a la semilla”, o “fecundo”. Otra cuestión es si sería conveniente que también se incorporara al diccionario español el significado que esta palabra tiene en inglés. Pero no nos corresponde a nosotros decidirlo. Y mientras no sea así, “estudio seminal” en castellano significa más bien esto:

ESpermatozoides teñidos para un estudio de la calidad del semen. Imagen de Bobjgalindo / Wikipedia.

Espermatozoides teñidos para un estudio de la calidad del semen. Imagen de Bobjgalindo / Wikipedia.

Y claro, es fácil imaginar las consecuencias: en algún caso me he encontrado tantos “estudios seminales” en un texto que aquello parecía otra cosa; el manuscrito llegaba a resultar demasiado espeso. Como alternativa puede emplearse “estudio fundacional”, que viene a significar lo mismo, pero que no desvía la atención hacia la equívoca idea de que las nuevas ciencias nacen de los gametos masculinos…