BLOGS
Ciencias mixtas Ciencias mixtas

Los secretos de las ciencias para
los que también son de letras

Archivo de la categoría ‘Pseudociencias’

“Quienes desmontamos el Blue Monday lo estamos manteniendo vivo”

Termina la semana que empezábamos con una de esas historias desprovistas de todo rastro de las mínimas cualidades de la noticia, como verdad, importancia o interés, pero que no obstante hacen relamerse de gusto a más de un redactor jefe: el Blue Monday.

El Blue Monday (lunes triste) es esa patraña de que existe un día, el tercer lunes del año, que es estadísticamente el más deprimente para la población en general. Aparte de lo descaradamente absurdo de la premisa, la historia vendida cada año en algunos medios es falsa: el Blue Monday no es fruto del trabajo científico de un científico, sino de una campaña publicitaria encargada por una agencia de viajes que contrató a un profesional del coaching para que lo firmara con su nombre.

Debo confesar que, a un servidor, la expresión Blue Monday solo le traía a la mente la canción de 1983 con la que New Order decidió enterrar definitivamente a Ian Curtis; hasta que rebusqué un poco sobre ese otro significado y me quedé patidifuso por el hecho de que algunos medios lo tomaran en serio. Y más aún por el hecho de que un organismo público, el gobierno canario, lo utilice como gancho publicitario, como si Canarias no tuviera suficientes atractivos turísticos para tener que recurrir a la seudociencia dando voz a quienes se lucran con ella.

Dean Burnett. Imagen de Cardiff University.

Dean Burnett. Imagen de Cardiff University.

Entre quienes más han batallado por dar a conocer la realidad sobre lo estulto del Blue Monday se encuentra Dean Burnett, neuropsicólogo de la Universidad de Cardiff (Reino Unido). Su relación con el Blue Monday comenzó cuando un periódico local le contactó para preguntarle por ello y luego tergiversó sus declaraciones para dar a entender que Burnett respaldaba la idea del día más triste del año, tal como el científico lo contó en su blog del diario The Guardian.

Después de aquello, Burnett ha continuado casi año tras año acudiendo a su cita con la fecha en el mismo blog. Y como en sus ratos libres también hace comedia, pues lo cuenta con gracia, la misma que gasta cuando escribe divulgación, como en su libro El cerebro idiota (edición española: Temas de Hoy, 2016).

Dado que Burnett conoce el cerebro humano mejor que la media, he aprovechado la ocasión para preguntarle brevemente sobre cómo funciona nuestro órgano pensante con cosas tan impensables como el Blue Monday.

¿Por qué triunfa la idea del Blue Monday?

Primero, pienso que su fuerza estriba en su relato. Por esta época del año todo el mundo se siente bajo, y esto les hace sentir que no es culpa suya, que es un fenómeno científico fuera de su control. Es relevante y quita la responsibilidad de sus manos, lo que para muchos es tranquilizador: “no necesito cambiar nada, no es culpa mía”. Algo que siempre es agradable pensar. También puede actuar como justificación para la autoindulgencia, la gente se da caprichos porque es un día deprimente y eso.

Además, es tan simple que es muy memorable. Da a la gente la impresión de que  entienden cómo funcionan la mente y los estados de ánimo, y de que el mundo es más fácil de entender de lo que realmente es. No es el caso, pero es agradable pensarlo.

Y a fuerza de creer que es el día más triste del año, ¿puede convertirse para quienes así lo creen en una profecía autocumplida?

Definitivamente hay algo de eso. Probablemente es un poco como el viernes 13 [o martes 13]. Es imposible que un día sea desafortunado por norma, pero el sesgo de confirmación triunfa cuando la gente cree en ello. La mala suerte que cualquier otro día no tendría importancia tiene un especial significado porque es viernes 13, lo que demuestra que es un día desafortunado, así que la creencia persiste año tras año.

Igualmente, es normal sentirse triste o miserable en lo peor del invierno después de toda la diversión de la Navidad, así que no cabe duda de por qué se eligió ese día para el Blue Monday, pero una vez que la gente piensa que es un día especialmente deprimente, lo atribuirán al hecho de que es ese día, más que a razones más mundanas que son la causa real. Y así seguimos.

Lo cierto es que cada año muchos medios lo cuentan. Y aunque algunos lo hagamos para desmontarlo, no dejamos de darle visibilidad. ¿Deberíamos dejar de hablar de ello?

Es una pregunta espinosa. Mi postura ha sido dejar claro sin lugar a dudas que es una tontería, y lo he hecho de la manera más llamativa y altisonante que he podido en cualquier ocasión que he tenido. Pero también algunos años prefiero ignorarlo, ya que tengo la impresión de que quienes intentamos desmontarlo en realidad lo estamos manteniendo vivo, y que de otro modo habría decaído. Creo que ahora está demasiado instalado como para librarnos de ello, pero es posible que la gente vaya perdiendo el interés a lo largo del tiempo, y es algo en lo que debemos confiar.

EEUU pone coto a la homeopatía obligándola a reconocer su inutilidad

Tengo la convicción de que la mayoría de quienes consumen homeopatía lo hacen por desconocimiento. Entiéndase: todos lo hacen por desconocimiento, ya que están consumiendo un simple placebo al que atribuyen propiedades curativas más allá del efecto placebo. Lo que quiero decir es que, intuyo, quienes realmente conocen y aclaman los absurdos principios de la homeopatía son una minoría; el resto creen estar consumiendo algo diferente de lo que realmente están tomando, y muchos de ellos se quedan de piedra cuando conocen la verdad.

Un producto homeopático. Imagen de Wikipedia.

Un producto homeopático. Imagen de Wikipedia.

Extraigo esta conclusión de la pequeña muestra de mi entorno. Si preguntan a algún consumidor de homeopatía que les explique en qué consisten esos productos y cuáles son sus ventajas, probablemente su respuesta se basará en estas dos ideas:

  • La homeopatía es una medicina tradicional, cuya eficacia viene avalada por miles de años de sabiduría popular colectiva.
  • La homeopatía es una medicina natural que emplea hierbas en lugar de productos químicos.

Cuando se quedan de piedra es cuando se les hace saber que ninguna de estas dos ideas se corresponde con la realidad:

  • La homeopatía NO es una medicina tradicional. La inventó un señor concreto con nombre y apellidos, el alemán Samuel Hahnemann, en un año concreto, 1796, cuando aún no se conocían las causas de muchas enfermedades ni se disponía de tratamiento para ellas.
  • La homeopatía NO es el uso de plantas medicinales. Beber una infusión de tila para calmar los nervios NO es homeopatía. Tomar vahos de menta para la congestión NO es homeopatía.

(Nota: la medicina, la de verdad, hunde sus raíces más profundas en el uso ancestral de productos naturales con fines terapéuticos. La farmacología moderna nace cuando la ciencia hace posible aislar los principios activos de estos remedios, identificarlos, recrearlos, sintetizarlos y mejorarlos. Medicamentos como la quinina o la aspirina no cayeron de otro planeta ni se inventaron en las probetas de un científico loco, sino que se descubrieron y se extrajeron de las plantas en primer lugar.)

¿Qué es entonces la homeopatía? Hahnemann creía que las enfermedades estaban causadas por unas entidades misteriosas llamadas miasmas, un término que todavía se empleaba en tiempos de mis abuelos. Las miasmas explicaban para Hahnemann el origen de enfermedades muy variadas cuyas causas concretas aún no se conocían, ya fuera sífilis, cáncer, cataratas o epilepsia. Para tratar estas diversas dolencias, Hahnemann formuló los dos alucinatorios principios fundacionales de la homeopatía:

  • Lo similar cura lo similar: una sustancia que provoca una enfermedad en personas sanas cura esa misma dolencia en los enfermos. Hahnemann llegó a esta disparatada conclusión cuando padeció fiebre tras comer la corteza de la quina, propuesta como remedio contra la malaria.
  • Dilución límite: dado que las dosis altas de las sustancias podían agravar los síntomas, decidió diluirlas sucesivamente en agua con la idea (contraria a la evidencia y al sentido común) de que, a menos dosis, más eficacia. La homeopatía utiliza diluciones tan elevadas de las sustancias de partida que matemáticamente no queda ni una sola molécula de ellas en el agua.

En resumen: los preparados homeopáticos líquidos son solo agua. Cuando se presentan en forma de pastillas, se añade azúcar para que tengan un sustrato sólido. La idea de que los productos homeopáticos son naturales tiene en el fondo una verdad irónica, ya que no hay nada más natural que el agua. Las sustancias de partida son preferentemente (no siempre) de origen natural, ya que en tiempos de Hahnemann no las había de otra clase. Poco importa, ya que en cualquier caso no están presentes en el preparado final que es simplemente agua milagrosa, pero más cara que la de Lourdes.

Todo lo cual, por cierto, me lleva a una reflexión. Algunas organizaciones escépticas han escenificado los llamados suicidios homeopáticos, ingestiones masivas de estos productos para demostrar que carecen de ningún principio activo. Pero si se me permite la ironía, tal vez debería hacerse lo contrario: si la homeopatía afirma que a menor dosis, mayor efecto, los suicidios deberían llevarse a cabo tomando los preparados aún mucho más diluidos de como vienen de fábrica, y en cantidades infinitésimas; idealmente, como en aquel Dry Martini de Buñuel, dejar que un rayo de sol atraviese el frasquito antes de impactar en la boca debería ser mortal de necesidad.

Algo que nunca he podido comprender es bajo qué justificación las farmacias venden estos productos. Algún amigo farmacéutico me ha confirmado que la (o al menos su) carrera de Farmacia no incluye ninguna enseñanza sobre homeopatía. Pero si algún farmacéutico licenciado tratara de excusarse en este vacío formativo para no descalificar la validez de esta seudociencia, el pretexto no sirve: la ciencia que sí aprendió durante su carrera es suficiente para certificar la absoluta inutilidad de los preparados homeopáticos.

Especialmente, esto me choca con la función que los farmacéuticos defienden para sí mismos como asesores expertos en materia terapéutica. Siempre que a alguien se le ocurre levantar la mano para preguntar por qué aquí las gasolineras y los supermercados no pueden despachar medicamentos sin receta, como ocurre por ejemplo en EEUU, los cuerpos y fuerzas del sector farmacia saltan de inmediato con la cantinela de la asesoría experta. ¿Asesoría experta, alguien que vende agua milagrosa?

Dicen algunas malas lenguas que el margen comercial de estos productos es superior al de los medicamentos, y que las grandes multinacionales de la homeopatía se ocupan de mimar a los farmacéuticos con atenciones –llamémoslas– extracurriculares. Ignoro si será cierto. Por mi parte, y dado que no es fácil encontrar farmacias que no dispensen homeopatía, al menos evito aquellas que la publicitan en sus rótulos, e invito a cualquier consumidor concienciado con el fraude comercial y sanitario a que haga lo mismo.

Por todo ello, la lucha contra el gran negocio fraudulento de la homeopatía está en la información al consumidor. Por mi parte, he conseguido que algún despistado con esa idea errónea de la “medicina tradicional natural” renuncie para siempre a la homeopatía. Es obvio que a los practicantes de esta seudociencia y a las compañías que fabrican sus productos no les interesa nada la divulgación de los fundamentos reales de sus negocios.

Y en cuestión de información, la Comisión Federal de Comercio de EEUU (FTC) acaba de dar un paso ejemplar. En un nuevo dictamen, el organismo regulador estadounidense obligará a los productos homeopáticos a que justifiquen sus proclamas del mismo modo que los medicamentos. Estos están siempre sometidos a rigurosos ensayos que demuestran su eficacia; sin embargo, hasta ahora los preparados homeopáticos podían venderse en EEUU con todas las indicaciones que a su fabricante le apeteciera inventarse sin ninguna obligación de justificar su utilidad, bajo el amparo de una regulación de 1988 de la Administración de Fármacos y Alimentos (FDA) que así lo permitía.

Esto se acabó: la FTC recuerda que sus estatutos prohíben la publicidad de falsas proclamas en la información comercial sobre productos y que por tanto deben aportarse justificaciones razonables. Sin embargo, el organismo reconoce que durante décadas se ha producido una dejación de estas exigencias que debe corregirse.

“La homeopatía, que data de finales del siglo XVIII, se basa en la idea de que los síntomas de enfermedad pueden tratarse con dosis diminutas de sustancias que producen síntomas similares cuando se suministran en dosis mayores a personas sanas”, dice la FTC. “Muchos productos homeopáticos se diluyen en tal grado que no contienen niveles detectables de la sustancia inicial. En general, las proclamas de los productos homeopáticos no se basan en métodos científicos modernos y no son aceptadas por los expertos médicos modernos, pero no obstante la homeopatía tiene muchos seguidores”.

La FTC no obligará a los productos homeopáticos a nada más ni nada menos que lo obligado para los medicamentos: justificar que funcionan; y si no pueden, confesarlo en sus envases y prospectos. “La promoción de un producto homeopático para una indicación que no esté fundamentada en pruebas científicas creíbles y competentes puede no ser un engaño si tal promoción comunica de forma efectiva a los consumidores que (1) no hay pruebas científicas de que el producto funcione y (2) las proclamas del producto se basan solo en teorías de homeopatía del siglo XVIII que no son aceptadas por la mayoría de los expertos médicos modernos”.

Resulta curioso que tenga que ser la FTC y no la FDA quien ponga coto a la homeopatía, pero se trata de un asunto siempre delicado, lleno de resquicios legales por los que esta seudociencia suele colarse aprovechando la completa inocuidad de sus productos y acogiéndose a las políticas que protegen la libertad de información comercial. La FTC precisa que su dictamen es compatible con la regulación de la FDA y con la Primera Enmienda de la Constitución de EEUU, que garantiza la libertad de expresión. Esperemos que los efectos de esta nueva normativa se noten pronto, y que cunda el ejemplo en otros países.

Cuando comer cadáver humano estaba de moda en Europa

Hace unos días elaboré una lista de diez libros sobre ciencia para leer este verano (aún no publicada), algo que suelo hacer por estas fechas para cierto medio. Por desgracia y como bien saben los periodistas de cultura (me consta como autor), aunque tal vez no el público en general, el ritmo del trabajo periodístico y las limitaciones del cerebro humano imposibilitan el leer diez libros en un par de días, así que debemos conformarnos con un análisis de la estructura y un muestreo del contenido con eso que suele llamarse lectura en diagonal (en realidad tan absurdo como, por ejemplo, hablar de practicar sexo en diagonal; o hay sexo, o no hay sexo).

Entre los libros que reseñé hay uno que reposa justo a la izquierda de estas líneas que escribo y que espera la primera oportunidad para hincarle el diente. Lamentablemente, debo aclarar que (aún) no hay una traducción española. Y más lamentablemente aún, y por si alguien se lo pregunta, hay por ahí una mayoría de libros magníficos sobre temas relacionados con la ciencia que jamás se traducen ni se traducirán al español.

Por poner sólo un caso, aún me hace frotarme los ojos que The Making of the Atomic Bomb de Richard Rhodes, publicado en 1986 y ganador del premio Pulitzer en 1988 (ha habido tiempo suficiente), traducido a una docena de idiomas, no esté disponible en castellano (y si alguna vez lo estuvo, que no lo puedo saber con certeza, estaría descatalogado). Y que en cambio sí se traduzcan otras cosas, de las que no voy a poner ejemplos.

mummiescannibalsandvampiresPero voy al grano. El libro en cuestión es Mummies, Cannibals and Vampires: The History of Corpse Medicine from the Renaissance to the Victorians, o traducido, Momias, caníbales y vampiros: La historia de la medicina de cadáveres del Renacimiento a los victorianos. Su autor es Richard Sugg, profesor de literatura de la Universidad de Durham (Reino Unido). La novedad es que recientemente se ha publicado una segunda edición y, al tratarse de un trabajo de investigación, el autor ha incluido nuevos materiales. En Amazon España se puede comprar la nueva edición en versión Kindle, pero en papel solo está disponible la primera edición. Quien quiera la nueva versión en papel podrá encontrarla en Amazon UK.

Lo que Sugg cuenta en su libro es un capítulo de la historia de Europa desconocido para la mayoría: el uso de partes de cadáveres humanos, como huesos, piel, sesos, grasa, carne o sangre, para tratar múltiples enfermedades, desde la epilepsia a la gota, el cáncer, la peste o incluso la depresión. Resulta curioso, como conté recientemente en un reportaje, que los navegantes y exploradores europeos tildaran fácilmente de caníbales a las tribus indígenas con las que se encontraban en sus viajes por el mundo, cuando también ocurría precisamente lo contrario, que los nativos veían a aquellos extranjeros como antropófagos.

Pero si los europeos a veces estaban en lo cierto, no menos los indígenas: la medicina de cadáveres fue muy popular en Europa durante siglos, y no como algo marginal y secreto. Al contrario, no era un material fácilmente accesible, por lo que su uso era frecuente entre la nobleza, el clero y las clases acomodadas. Y aunque fue desapareciendo en el último par de siglos, se registran casos incluso a comienzos del siglo XX: según una de las fuentes de mi reportaje, en 1910 todavía una compañía farmacéutica alemana listaba en su catálogo de productos el polvo de momias expoliadas de Egipto, uno de los productos estrella de la medicina de cadáveres.

Ahí dejo la sugerencia; un libro muy recomendable para este verano. Pero intrigado por saber algo más sobre las investigaciones de Richard Sugg, me puse en contacto con él y le hice algunas preguntas sobre la historia del canibalismo. Esto es lo que el autor me contó. Lean, que merece la pena.

¿Cómo surgió la medicina de cadáveres?

La práctica médica en Europa parece haber surgido en la Edad Media. Pero a pesar de que suele repetirse que fue un fenómeno puramente medieval, se prolongó entre los ilustrados hasta mediados del siglo XVIII y probablemente alcanzó su esplendor a finales del XVII, precisamente cuando comenzaba la Revolución Científica. Todavía en 1770 había un impuesto sobre los cráneos importados de Irlanda para utilizarse como medicinas en Gran Bretaña y Alemania.

¿Cuándo empezó el canibalismo a convertirse en un tabú entre los seres humanos?

Por su propia naturaleza, sabemos muy poco de las tribus caníbales aisladas en períodos antiguos. Aunque el canibalismo de subsistencia es diferente, el hecho de que estos episodios se registraran nos indica que se estaba violando un tabú. Un ejemplo temprano es el del sitio de Samaria (724-722 a. C.), cuando supuestamente las madres se comieron a sus propios hijos. Más tarde, el cristiano Tertuliano (c. 150-222 d. C.) informaba irónicamente sobre las leyendas urbanas en torno a esta nueva secta, a cuyos miembros se les acusaba de asesinar a niños y beberse su sangre. También la siniestra reputación de los cristianos en aquella época implica que el canibalismo ya era un tabú.

Pero nunca ha llegado a desaparecer.

El canibalismo y beber sangre han sido recursos en todas las épocas en casos de hambrunas, naufragios y otras situaciones desesperadas. Hay muchos relatos de ello en travesías marítimas en el siglo XIX. El caso más notorio fue el de un grumete, Richard Parker, asesinado para comérselo después del naufragio del yate Mignonette en 1884. Un caso más reciente ocurrió después del fiasco de la Bahía de Cochinos en 1961, cuando un grupo de exiliados cubanos recurrió al canibalismo estando a la deriva en el mar durante 16 días. En 1998 The Times contaba el caso de Julio Pestonit, de 57 años, que relató al canal de noticias Fox en Nueva York cómo por entonces, con 20 años, fue uno de los 1.500 exiliados implicados en el intento frustrado de invasión de Cuba con el apoyo de la CIA. Tras eludir la captura, 22 exiliados se hicieron a la mar en un bote muy frágil sin comida ni agua, y pronto empezaron a morir. Pestonit dijo: “El grupo comió un cadáver con mucha reticencia. Yo comí algo del interior del cuerpo que me pasaron. Era una locura. Era como estar en el infierno”.

¿Sigue siendo práctica habitual hoy en algunas culturas?

El canibalismo intrínseco o ritual en ciertas tribus puede ser una táctica para aterrorizar a los enemigos, o bien puede ser un rito funerario, lo cual es una práctica formal religiosa y consensuada. En el primer caso las víctimas suelen saber que serán comidas si los matan; entre los tupinamba de Brasil la víctima capturada era incorporada a la tribu de sus captores durante un año, se le daba una esposa, tenía un hijo, y trabajaba junto a los demás antes de ser asesinado y devorado ceremonialmente. En ambos casos la práctica puede incluir un deseo de reciclar o absorber el poder espiritual o el alma de la persona. Daniel Korn, Mark Radice y Charlie Hawes han mostrado que en el caso de los caníbales de Fiji esto era muy preciso: creían que el espíritu se aferraba al cadáver durante cuatro días. Comer el cuerpo aniquilaba el espíritu y le impedía ascender al mundo de los espíritus para servir de guía y dar fuerza al enemigo.

¿Diría que antiguamente los exploradores occidentales utilizaron todo esto como excusa para justificar la necesidad de colonización con el fin de “civilizar a los salvajes”?

Así es. En 1503, la reina Isabel de España dictó que sus compatriotas podían legítimamente esclavizar solo a los caníbales. Por supuesto, esto impulsó la invención de caníbales que no existían, aunque ciertamente los había. En 1510, el Papa Inocencio IV definió el canibalismo como un pecado que los soldados cristianos estaban obligados a castigar, no solo que tuvieran el derecho de hacerlo. Si creemos los relatos del testigo y jesuita español Bartolomé de las Casas (1474-1566), los invasores españoles terminaron haciendo a los habitantes nativos, caníbales o no, cosas mucho peores que esta.

Mucho más reciente es el caso relatado por la antropóloga Beth A. Conklin. Al parecer en la década de 1960 los wari’, una tribu de Brasil, todavía practicaban canibalismo funerario. Cuando los misioneros cristianos llegaron allí, llevaron consigo enfermedades contra las que los wari’ no estaban inmunizados, y les dieron medicinas solo con la condición de que abandonaran lo que para ellos era una práctica solemne y una parte importante de la psicología del duelo y la pérdida. En todos estos casos, exceptuando el canibalismo de subsistencia, la práctica de comer personas ha sido altamente cultural, y no una actividad puramente natural o bestialmente salvaje.

Oído en los medios: los militares causan cáncer y la roña da tétanos

Desde hace tiempo estoy tentado de abrir aquí una minisección, errática y de periodicidad sorpresiva como todas las de este blog (incluso las de mi propia vida), dedicada a burradas seudocientíficas oídas/leídas en los medios y originadas por personajes de la vida pública o en ocasiones, tristemente, por los propios periodistas.

Siempre me resulta curioso cómo en este mundo de ahora, tan tuiterizado, todo el que habla en público tiende a medir sus palabras por el riesgo de convertirse en un Trending Topic de los que nadie quiere para sí mismo; excepto cuando se trata de temas relacionados con la ciencia. Aquí, ancha es Castilla: con frecuencia esos personajes introducen en su discurso conceptos científicos de los que no tienen la menor idea ni la menor intención de tener la menor idea, y sobre los que patinan más que el campeón ese de Madrid.

Como digo siempre, es un trabajo sucio (la burrada seudocientífica no es patrimonio exclusivo de ningún bando político concreto) y a muchos ni siquiera les importará, pero alguien tiene que hacerlo, y para eso está un servidor.

Los militares causan cáncer

Lo peor que la ciencia ha tenido que sufrir machaconamente a lo largo de su historia, y tendrá que seguir sufriendo, es que ciertos líderes políticos o ideológicos se coloquen en la boca argumentos seudocientíficos (aclaración lingüística: “seudo-” significa “falso”) para tratar de apoyar sus prejuicios (otra: “opinión previa y tenaz, por lo general desfavorable, acerca de algo que se conoce mal”). Personalmente me recuerda a cuando los niños se ponen en el pecho una de esas estrellas de sheriff de pega porque así se sienten como revestidos de cierta autoridad.

Teresa Rodríguez, secretaria general de Podemos en Andalucía y epidemióloga. Imagen de Wikipedia.

Teresa Rodríguez, secretaria general de Podemos en Andalucía y epidemióloga. Imagen de Wikipedia.

El pasado 21 de junio, la secretaria general de Podemos en Andalucía, Teresa Rodríguez, se quejó en la cadena SER de las bases militares estadounidenses de Rota y Morón, denunciando que no crean empleo local. Hasta ahí, nada que objetar, más que nada porque desconozco por completo si esas instalaciones crean empleo o no. Pero a continuación, Rodríguez se vino arriba y añadió que las bases militares provocan cáncer. Sí, han leído bien.

“Es cierto que no se ha hecho ningún estudio epidemiológico serio, pero en la zona se habla mucho de cómo afecta el cáncer la presencia militar”, dijo.

De verdad que aportaría aquí algún argumento si hubiera algún argumento pertinente que aportar, y explicaría algún estudio científico si hubiera alguno pertinente que explicar. Pero comprenderán que no hay absolutamente nada que decir al respecto. Bueno, solo una cosa: cuando un líder político comete la barbaridad de crear alarma social con un argumento que ni siquiera tiene la credibilidad de una estrella de disfraz de sheriff, está moralmente obligado a rectificar públicamente para disolver el atroz bulo que ha hecho correr. ¿A quién nunca se le ha calentado la boca en un momento determinado? Pero cuando esta rectificación no llega es cuando se comprende que, en efecto, ¡lo piensa!

Lo cual dibuja un cuadro radicalmente opuesto al que probablemente la propia Rodríguez creería que está dibujando: el de la España profunda, supersticiosa e ignorante; bañarse con la regla provoca pérdida de pelo; si te masturbas te salen granos; meigas, haberlas, haylas; la señora del ramito de romero te puede echar mal de ojo si no le das unas monedas; los militares provocan cáncer. Nada más que añadir.

La roña provoca tétanos

Pasamos al lado contrario de la barrera política para destacar aquí a un político del Partido Popular en cuya mente el último siglo y medio de ciencia microbiológica no ha logrado dejar ni la más leve mácula. Durante un debate sobre la Memoria Histórica, el concejal del Ayuntamiento de Madrid Pedro Corral dijo lo siguiente: “La cuestión era sacar del baúl antes de las elecciones para llevarse algo de Memoria Histórica a la boca y una colección de condecoraciones roñosas; tanto, que si te pinchas o te cortas con ellas te tienen que poner la vacuna antitetánica”.

Pedro Corral, concejal del PP en el Ayuntamiento de Madrid y experto en enfermedades infecciosas. Imagen de su Twitter.

Pedro Corral, concejal del PP en el Ayuntamiento de Madrid y experto en enfermedades infecciosas. Imagen de su Twitter.

Por supuesto que, cuando yo era pequeño, las abuelas solían imbuirte de esta conexión entre el óxido y el tétanos, que nadie sabía muy bien lo que era, pero sonaba tan feo y temible al oído como la pelagra o las paperas. Pero entonces llegó Louis Pasteur (perdónenme la hipérbole; es obvio que no llegué a ser coetáneo suyo) y explicó que muchas enfermedades que antes te llegaban por cosas como un clavo oxidado no tenían en realidad nada que ver con el clavo oxidado.

El tétanos es una enfermedad potencialmente mortal causada por una bacteria llamada Clostridium tetani, prima de la que produce el botulismo. Esta bacteria vive a nuestro alrededor, comúnmente en el suelo, donde se atrinchera en forma de esporas resistentes a la espera de las condiciones adecuadas para crecer. Porque nuestras condiciones adecuadas no son las suyas: para este clostridio no hay nada más letal que el oxígeno. Es una bacteria anaerobia estricta, lo que significa que solo puede prosperar en lugares donde no hay aire.

Cuando nos hacemos una herida profunda con algo que ha estado en contacto con el suelo, es posible que ese objeto sea portador de esporas del clostridio. Y si estas llegan a un entorno en el interior de nuestros tejidos sin exposición al aire, las esporas pueden activarse y la bacteria se reproduce. En nuestro organismo esponjado de oxígeno el clostridio no puede montar una invasión en toda regla, pero para eso tiene otras armas: dos toxinas, tetanolisina y tetanospasmina. Sobre todo la segunda, se distribuye libremente por el torrente sanguíneo y llega a las terminaciones nerviosas de los músculos, por donde penetra en el circuito neuronal hasta llegar a la médula espinal y el cerebro. Y entonces ocurren cosas muy malas, si la enfermedad no se trata a tiempo.

Pero aunque un clavo oxidado tenga más tiempo a la intemperie y por tanto más probabilidad de contener esporas, lo cierto es que estas también se encuentran en la piel humana. Es decir, que podríamos pincharnos o cortarnos con una condecoración impuesta ayer mismo y facilitar con ello la entrada de las esporas de la piel a nuestros tejidos profundos. En resumen: creer en la relación entre óxido y tétanos es como creer que la malaria, “mala aria“, “mal aire”, se cogía por acampar al pie de los árboles de la fiebre (la acacia amarilla, Vachellia xanthophloea) y respirar aquel aire insano. Cuando Corral hizo la EGB, seguro que Pasteur ya estaba bien muerto. Lo único roñoso aquí es el conocimiento científico de este concejal.

¿Propaganda seudocientífica antivacunas en un colegio público?

Una persona de mi familia me cuenta que en el colegio público donde trabaja como profesora han montado un aula dedicada a los trastornos del espectro autista (TEA). Lo cual suena como una fantástica iniciativa dirigida a ampliar el conocimiento de los profesores y mejorar su capacidad de trabajar adecuadamente con los alumnos afectados por estos trastornos en enorme crecimiento… Espera, espera: ¿enorme crecimiento?

La idea de que existe un rápido crecimiento de los casos de TEA puede ser tan solo una interpretación simplista de los datos. Claro que si, como es de suponer, los responsables del aula en cuestión pasan por ser expertos en la materia, esta hipótesis se cae. Y lo malo es que la alternativa no es tan inocente. Me explico.

Entre 2012 y 2014, los casos registrados de malaria en Botswana, Namibia, Suráfrica y Swazilandia se duplicaron. Solo en un año, el aumento en Namibia fue del 200%, y en Botswana del 224%, todo ello según datos del Informe Mundial de Malaria 2015 de la Organización Mundial de la Salud (OMS).

¿Un brote virulento de malaria en el sur de África? ¡No! No es necesario ser científico ni médico, sino meramente aplicar un poco de sentido común, para comprender que datos como estos no demuestran un aumento en el número de casos, sino solo en el número de casos diagnosticados. Naturalmente, el informe de la OMS explica que en esos años fue cuando empezaron a introducirse los tests rápidos, lo que disparó las cifras de diagnósticos de malaria en muchos países del mundo.

Algo similar ocurre con los TEA. La biblia del diagnóstico psiquiátrico, el DSM, incluyó por primera vez el autismo en 1980; hasta entonces no existía una separación de la esquizofrenia. Desde aquella definición a la actual de TEA se han ampliado enormemente los criterios, de modo que hoy entran en el diagnóstico de TEA muchos casos que no encajaban en el de “autismo infantil” de 1980.

Ante los gráficos presentados por ciertas fuentes, en los que parece reflejarse un crecimiento brutal de los casos de TEA en el último par de décadas, algunos investigadores han dejado de lado el titular sensacionalista y han entrado a analizar los datos. Y entonces, la cosa cambia: aunque podría existir un pequeño aumento en el número de casos, la mayor parte de lo que algunos presentan como una explosión de casos se debe realmente al cambio de los criterios diagnósticos.

Por si alguien aún no lo cree –el escepticismo es sano– y quiere datos más concretos, ahí van algunas fuentes y citas originales, con sus enlaces. Según un estudio global de febrero de 2015, “después de tener en cuenta las variaciones metodológicas, no hay pruebas claras de un cambio en la prevalencia de los TEA entre 1990 y 2010”.

A la misma conclusión había llegado una revisión de 2006: “probablemente no ha habido un aumento real en la incidencia de autismo”. Otros estudios han examinado datos regionales: un trabajo de 2015 descubrió que el aumento en los diagnósticos de autismo en EEUU se correspondía con el descenso en el número de diagnósticos de discapacidad intelectual; es decir, que simplemente los pacientes se habían movido de una categoría a otra.

Otro estudio de 2013 en California determinó que una buena parte del aumento en el número de casos diagnosticados es una consecuencia de la mejora del nivel de vida: “los niños que se mudaron a un vecindario con más recursos diagnósticos que su residencia anterior recibían con más probabilidad un diagnóstico de autismo que los niños cuyo vecindario no ha cambiado”.

Otro trabajo publicado en enero de 2015 examinó la situación en Dinamarca, llegando a la conclusión de que dos terceras partes del presunto aumento en el número de casos corresponden al cambio de los criterios diagnósticos introducido en 1994 y al hecho de que en 1995 comenzaron a incluirse en el registro los diagnósticos de pacientes externos.

Imagen de CDC / dominio público.

Imagen de CDC / dominio público.

Surge entonces la pregunta: ¿por qué todos estos datos no están en el conocimiento de, o al menos no están en la exposición presentada por, los organizadores de un aula dedicada a los TEA en un colegio público? No lo sé. Pero cuando mi informadora prosigue su explicación, se descubre el pastel: en el aula les hablaron de los “posibles factores”, como… ¿adivinan? Vacunas, contaminantes ambientales…

Como no podía ser de otra manera; en general, los defensores de la “explosión” de casos suelen estar guiados por el interés de colocar a continuación su idea de que el autismo está causado por su obsesión favorita. En su día ya presenté aquí a uno de esos personajes y su disparatado gráfico con el que pretendía culpar del autismo al herbicida glifosato; causa a la que yo añadí, con idénticos argumentos, otras tres: la importación de petróleo en China, el crecimiento de la industria turística y el aumento de las mujeres británicas que llegan a los 100 años.

Claro que esa obsesión favorita puede traducirse en el motivo más viejo de la humanidad. La idea del vínculo entre vacunas y autismo fue un “fraude elaborado” creado por un tipo llamado Andrew Wakefield, exmédico. Su licencia fue revocada después de descubrirse que su estudio era falso. Posteriormente, una investigación de la revista British Medical Journal reveló (artículos originales aquí, aquí y aquí) que Wakefield había recibido para su estudio una suma de 674.000 dólares de una oficina de abogados que estaba preparando un litigio contra los fabricantes de vacunas. Al mismo tiempo se descubrió que Wakefield preparaba un test diagnóstico de su nuevo síndrome con el que planeaba facturar 43 millones de dólares.

Habrá que repetirlo las veces que sea necesario: no existe ni ha existido jamás ningún vínculo entre vacunas y autismo. La idea procede en su totalidad de un estudio falso fabricado por un médico corrupto. Más de 100 estudios y metaestudios han concluido que no existe absolutamente ninguna relación entre vacunas y autismo.

Esto es lo que no es. En cuanto a lo que es: hoy no hay pruebas para sostener otra hipótesis diferente a que los TEA tienen un origen genético complejo debido a variantes génicas no necesariamente presentes en los genomas parentales, y que el riesgo podría aumentar con la edad del padre y tal vez de la madre (lo cual no es diferente a lo que tradicionalmente se ha asociado con otros trastornos, como el síndrome de Down). No se puede negar una posible modulación del nivel de riesgo genético por causas externas ambientales, pero hasta ahora no hay pruebas sólidas de la influencia de ninguno de estos factores. Esto es lo que hay, y lo demás es propaganda.

Pero ahora llega la pregunta más grave. Y para esta sí que no tengo respuesta: ¿por qué se está financiando con dinero público la promoción de propaganda falaz y peligrosa en un colegio público?

¿Las series de televisión provocan suicidios?

Para los investigadores Luca Perri y Om Sharan Salafia, del Instituto Nacional de Astrofísica de Italia, algo no cuadraba. Si, como se nos dice, el Trastorno Afectivo Estacional (TAE) causa unos mayores niveles de depresión en invierno, ¿por qué en cambio las cifras de intentos de suicidio en 28 países alcanzan su máximo anual en primavera en ambos hemisferios? Como astrofísicos, Perri y Salafia conocen bien la dinámica de los ciclos solares estacionales.

Se supone que abandonar los cuarteles de invierno, salir a la calle entre parterres floridos, solazarnos en las terrazas ante empañadas jarras de cerveza, vestir ropa más reveladora (y verla vestir a otros/as), todo ello debería auparnos el ánimo. Ya se sabe: la primavera, la sangre altera. ¿Por qué entonces hay más gente que en esta estación decide colocarse en el extremo equivocado de una soga o de cualquier otro artefacto mortal?

Ni cortos ni perezosos, Perri y Salafia construyeron una hipótesis: no es el sol… ¿Qué tal las series de televisión? Citando palabras del estudio:

La Depresión Post-Serie, también conocida como DPS, es la tristeza que se siente después de ver una serie larga. El sentimiento amargo cuando sabes que el viaje ha llegado a su fin, pero no quieres que termine. Esto se puede aplicar a cualquier serie, por ejemplo series de televisión, series de dibujos animados, o incluso series de cine.

Los efectos incluyen, pero no solo: un estado de depresión o tristeza, la incapacidad para comenzar otra historia, la necesidad de volver a ver la serie completa, el abuso de internet ligado a la serie, la creación de fanfiction.

Para poner a prueba su hipótesis, los dos investigadores eligieron una de las series actuales más longevas, populares y emitidas en todo el mundo, Anatomía de Grey, como ejemplo de “fenómeno universal y homogéneo”. A continuación analizaron el patrón de emisión medio de las 12 temporadas ya producidas: una temporada suele comenzar en torno a la semana 38 del año, más o menos coincidiendo con el equinoccio de otoño en el hemisferio norte, hasta el descanso de invierno de la semana 49, con una reanudación hacia la segunda semana del nuevo año que se prolonga hasta el final de temporada en la semana 21.

Imagen de ABC.

Imagen de ABC.

Así, los científicos esperaban encontrar un aumento de la tasa de suicidios entre las semanas 21 y 38, junto con un repunte hacia final de año. Pero al solapar el ciclo anual de Anatomía de Grey con el gráfico de las tasas de suicidios, surgió la gran sorpresa: los mayores aumentos en las cifras de suicidios se producen durante la emisión de la temporada, descendiendo una vez que la serie ha finalizado. El mínimo anual coincide con el momento en que comienza una nueva temporada, y a partir de entonces los intentos de suicidio empiezan a remontar, deteniéndose brevemente en la pausa de fin de año para luego trepar en una frenética escalada hasta el gran final. Escriben Perri y Salafia:

Tendencia del número de intentos de suicidio a lo largo del año. Las franjas rojas representan los períodos medios de emisión de las temporadas de 'Anatomía de Grey'. Imagen de Perri y Salafia.

Tendencia del número de intentos de suicidio a lo largo del año. Las franjas rojas representan los períodos medios de emisión de las temporadas de ‘Anatomía de Grey’. Imagen de Perri y Salafia.

Por tanto, sugerimos que es la propia serie, con sus tormentosas aventuras amorosas y tensas relaciones, la que aumenta la depresión del espectador. Por el contrario, el final de la temporada es un momento de liberación para los espectadores, cuyos intentos de suicidio descienden drásticamente.

Pero por supuesto, todo ello no es sino una gran broma; ya les advertí ayer de que iba a comentar un nuevo y precioso caso de correlaciones espurias. Tras detallar sus conclusiones, Perri y Salafia desvelan el propósito real de su estudio, disponible en la web de prepublicaciones arXiv.org: poner de manifiesto las correlaciones epidemiológicas que con tanta frecuencia se publican en la literatura médica sin justificar ningún vínculo real entre presunta causa y supuesto efecto. Una preocupación que también lo es de este blog, como ya sabrán si se han pasado alguna otra vez por aquí. Los investigadores aclaran:

Este estudio, junto con otros (por ejemplo, el que encontró una correlación entre el número de personas ahogadas tras caer a una piscina y las apariciones cinematográficas de Nicolas Cage), podría ser una advertencia a los científicos de que sean cautos con las correlaciones espurias. Una correlación espuria surge, por ejemplo, cuando se comparan mediciones que dependen de la misma variable. En este caso, la correlación es simplemente la consecuencia de la dependencia común de las mediciones en esa variable, y no de una correlación real entre las mediciones.

Un ejemplo de esto último ya fue comentado en este blog, a propósito de un estudio que pretendía correlacionar el consumo de Viagra con el riesgo de melanoma. Los propios autores de aquel trabajo reconocían que los principales consumidores de Viagra eran hombres con un mayor nivel económico, “que probablemente pueden costearse más vacaciones al sol” y que “tienden a tomar más el sol”, y que además “buscan atención médica más a menudo para los lunares de la piel, lo que lleva a un mayor riesgo de diagnóstico de melanoma”. Es decir, que lo que aumenta el riesgo de melanoma, como está ya bien establecido, no es la Viagra, sino tomar el sol.

En el caso del estudio de Perri y Salafia, la trampa que los investigadores tienden con fines de pedagogía científica es que sí existe una ligera estacionalidad de las tasas de suicidios, y coincide casualmente con los ciclos de las series. Ligera porque, si se fijan, el gráfico no refleja cifras absolutas, sino cambio en la tendencia, que a lo largo del año oscila solo entre 0,9 y 1,2; si se representaran las cifras absolutas en la muestra de 28 países, el aspecto de los picos y valles sería mucho menos espectacular. Esta manipulación de los datos, maliciosamente consciente en el caso de Perri y Salafia, es algo también frecuente en los estudios de correlaciones motivadas por intereses, como también expliqué aquí.

Y otro timo más que tampoco se irá: el Índice de Masa Corporal

El índice de masa corporal (IMC) es un numerito que pretende determinar si una persona está gorda, no en el sentido estético, sino en el clínico (=enferma), valorando parámetros que no tienen ninguna relación directa con la enfermedad; algo así como si los meteorólogos no estimaran cuánta lluvia ha caído por la cantidad de agua recogida en un pluviómetro, sino según lo mojados que paseen los gatos por la calle.

Imagen de pixabay.com/dominio público.

Imagen de pixabay.com/dominio público.

Si el IMC ya despertaba sospechas no es solo por el hecho de tratarse de una regla heurística convertida en teoría científica sin pruebas reales a su favor. Por no extenderme, resumo que “heurístico” en este caso se aplica a una estimación simple y razonable que suple nuestra falta de conocimiento sobre un problema complejo; y “teoría científica” no significa lo mismo que “teoría” en el lenguaje popular, sino que hace referencia a un cuerpo de conocimiento ampliamente avalado por las pruebas, como la teoría de la relatividad o la de la evolución.

Pero es que además, y aunque el índice fue un invento del belga Adolphe Quetelet en el siglo XIX –la época de la obsesión por la antropometría, como la frenología, que pretendía evaluar la inteligencia o los impulsos criminales por la forma y el tamaño del cráneo–, quien la introdujo en la ciencia moderna del siglo XX fue nada menos que Ancel Keys.

¿Y quién demonios era Ancel Keys?, se preguntarán ustedes. Ancel Keys, además de sobrino del Hombre Lobo Lon Chaney, fue el fisiólogo estadounidense que ha mantenido a varias generaciones de terrícolas privados de comer grasas saturadas y colesterol bajo la amenaza de morir de infarto. Keys dirigió el Estudio de Siete Países, una amplia investigación epidemiológica en los años 60 de cuyas conclusiones nacieron las recomendaciones nutricionales esenciales vigentes hasta ayer mismo: las grasas insaturadas son buenas, el colesterol y las grasas saturadas son malas.

La historia de este culebrón ya ha sido tratada en capítulos anteriores de este blog (ver aquí, aquí y aquí). A modo de resumen: desde los años 70 y tras el Estudio de Siete Países, otras investigaciones posteriores trataron de confirmar la relación entre grasas saturadas y colesterol con la enfermedad coronaria, llegando a resultados débiles, contradictorios o negativos.

Las no-pruebas del vínculo establecido por Keys fueron acumulándose y acumulándose, hasta que la realidad no pudo ocultarse durante más tiempo y ha comenzado a imponerse, refutando el dogma nutricional de Keys, quien incluso en los años 90 se vio obligado a reconocer por escrito que “muchos experimentos controlados han demostrado que el colesterol de la dieta tiene un efecto limitado en humanos. Añadir colesterol a una dieta libre de colesterol aumenta el nivel en sangre en humanos, pero cuando se añade a una dieta sin restricciones, su efecto es mínimo”. Las nuevas recomendaciones nutricionales de EEUU han absuelto ya a las grasas saturadas y al colesterol, aunque es previsible que esta ciencia tarde años en transmitirse a la calle, si es que llega a hacerlo.

Hoy Keys permanece como una de las figuras más respetadas de la historia de la ciencia nutricional, incluso por muchos de sus críticos; aquellos que le acusan de haber escogido a dedo los datos del Estudio de Siete Países para favorecer una hipótesis a la que no parecía dispuesto a renunciar de ninguna manera. Cuando en los años 70 el fisiólogo y nutricionista británico John Yudkin atribuyó al azúcar, y no a las grasas saturadas, la culpa de la enfermedad coronaria, Keys reaccionó incluso con ataques personales, según relató Yudkin en su libro Pure, White and Deadly (Puro, blanco y letal; el título no aludía a Keys, sino al azúcar). Hoy la hipótesis de Yudkin está siendo reivindicada en la misma medida en que la de Keys está siendo refutada.

En 1972, Keys rescató la fórmula definida por Quetelet y la llamó Índice de Masa Corporal. El propio fisiólogo reconocía en su artículo original que el IMC no era “completamente satisfactorio”, y advertía contra el riesgo de emplearlo como indicador de salud a cualquier edad: “La caracterización de las personas en términos de porcentaje de peso deseable ha resultado en atribuir al sobrepeso algunas tendencias a la mala salud y a la muerte que en realidad están únicamente relacionadas con la edad”, escribían Keys y sus colaboradores.

Y sin embargo, el IMC se ha convertido en una especie de mantra determinante del estado de salud y de enfermedad, algo que de ninguna manera se desprende de la lectura del estudio original de Keys. Hoy existen incluso calculadoras del IMC online, y las clínicas de adelgazamiento lo explotan extensamente en su publicidad, ofreciendo una primera consulta gratuita en la que se informará al paciente de su IMC como manera de certificarle científicamente que está gordo, y por tanto enfermo, como anzuelo para engancharle a un programa completo.

Por supuesto, allá cada cual con su cuerpo. Quien no se encuentre a gusto con su físico y desee aligerarlo por los motivos que le parezcan, tiene a su disposición una amplia oferta de opciones, incluyendo los centros especializados. El matiz es el uso que estos negocios puedan hacer del IMC como herramienta de márketing.

Un estudio publicado por investigadores de la Universidad de California en el International Journal of Obesity, del grupo Nature, ha analizado la salud cardiometabólica de más de 40.000 personas basándose en un amplio panel de indicadores reales de salud, de los que se miden en los chequeos médicos, y los ha comparado con sus IMC. Y la conclusión es apabullante: hay 54 millones de estadounidenses que están perfectamente sanos, a pesar de que sus IMC los clasifican como sujetos con sobrepeso u obesidad. Casi una de cada dos personas con sobrepeso según su IMC tiene unos parámetros de salud perfectos. Por el contrario, un 30% con un IMC normal tienen una salud cardiometabólica deficiente.

“Concentrarse en el IMC ignora a los individuos obesos o con sobrepeso que están cardiometabólicamente sanos: casi la mitad de los individuos con sobrepeso, el 29% de los obesos, y el 16% de los individuos con obesidad de tipo 2 o 3 [los niveles más altos]”, escriben los autores. Y añaden: “Para estos individuos, que un facultativo les prescriba una pérdida de peso podría ser un desperdicio de tiempo, esfuerzo del paciente y recursos”. Y siguen: “Concentrarse en el IMC como indicador de salud puede también contribuir y exacerbar la estigmatización del peso, un problema particularmente preocupante dado que los facultativos demuestran un alto nivel de sesgo anti-gordura”. Toma ya.

Sumando los datos, los investigadores concluyen que el IMC clasifica erróneamente la salud de nada menos que 74.936.678 personas en EEUU, cerca de la cuarta parte de la población del país. Con todo ello, advierten contra el uso del IMC como discriminador por parte de los reguladores, las compañías aseguradoras y las empresas. En un artículo publicado esta semana en la web de la Universidad de California en Los Ángeles, la directora del estudio, A. Janet Tomiyama, califica el IMC de “falacia”, equiparando su fiabilidad a “lanzar una moneda al aire” y cargando contra “nuestra obsesión cultural por el peso” y la estigmatización de muchas personas por esta causa.

Tomiyama termina: “Claramente, el IMC debe desaparecer. Esperemos que nuestro análisis sea el último clavo en el ataúd de esta medida fallida”.

Las vacunas no son una libre elección personal como teñirse el pelo

Si les parece que últimamente tenemos algunas leyes polémicas en este país, a ver qué opinan de esto: el gobierno de Uganda encarcelará durante seis meses a los padres que no vacunen a sus hijos, según informa la BBC.

Un niño recibe una vacuna en África. Imagen de public-domain-image.com.

Un niño recibe una vacuna en África. Imagen de public-domain-image.com.

Como africanista apasionado, sé que por allí tienden a ser drásticos para según qué cosas. Pero lo cierto es que las autoridades ugandesas (y por extensión, las de otros países africanos) tienen motivos para la preocupación: la medida es una más de las destinadas a la persecución de una secta apocalíptica cristiana llamada Abajiri o 666, que nació como escisión de la Iglesia Adventista del Séptimo Día.

Los Abajiri, que creen en la inminencia del fin del mundo, rechazan todas las prácticas y usos que implican un registro, ya que contemplan estas actividades como parte de una conspiración satánica global destinada a sojuzgarlos. Así, no tienen cuentas bancarias, permisos de conducir o teléfonos móviles, no votan ni participan en los censos de población, no acuden a hospitales ni escolarizan a los niños en centros oficiales. Y naturalmente, tampoco vacunan a sus hijos.

La secta está proliferando bien a gusto como una mala hierba, lo que explica la preocupación del gobierno ugandés, que contempla cómo un sector creciente de su población está declarándose en rebeldía contra la legalidad y las normas básicas de convivencia social.

Pero sin llegar a la severidad del castigo impuesto por la nueva ley de Uganda, otros países más desarrollados están tomando medidas para penalizar el incumplimiento de las vacunaciones obligatorias. Desde enero de este año, Australia ha suprimido la objeción de conciencia a la vacunación: los padres y madres que no vacunen a sus hijos perderán el derecho a una serie de beneficios sociales, ayudas y desgravaciones fiscales. Si no cumples tu parte de contribución a la comunidad, no puedes disfrutar de sus ventajas.

No es el único caso. A partir de julio de este año, todo niño californiano deberá presentar una cartilla de vacunación al día para acceder a escolarización en centros públicos o privados, una ley instigada por el grave brote de sarampión surgido en Disneyland en 2014 y que tuvo su origen en un niño no vacunado. De hecho, en EEUU la vacunación es teóricamente obligatoria, aunque cada estado contempla ciertas exenciones. Según la CNN, California se unirá a otros 32 estados que no permiten la exención por creencias personales.

Vacuna contra el Virus del Papiloma Humano (VPH). Imagen de Wikipedia.

Vacuna contra el Virus del Papiloma Humano (VPH). Imagen de Wikipedia.

En nuestro entorno más cercano, esta misma semana hemos tenido conocimiento de un presunto apoyo del Ayuntamiento de Barcelona a un documental que cuestiona la seguridad de la vacuna contra el Virus del Papiloma Humano (VPH), que se administra a las niñas antes de alcanzar la madurez sexual (y que debería administrarse también a los niños, ya que los hombres no estamos ni mucho menos a salvo del riesgo de cáncer por VPH).

Según informa La Vanguardia, los autores del documental niegan haber recibido financiación municipal, aunque el logotipo del consistorio barcelonés aparece en la publicidad de la película. Pero sin duda lo más grave es que un tal Davide Malmusi, que según La Vanguardia ejerce como director de Salud del Ayuntamiento, afirma que la vacuna del VPH es “controvertida” y que él no toma partido, pero que está “a favor de que se sienten las partes, que se pueda abrir el debate”.

¡El director de Salud!

Este responsable público debería saber que no existe controversia ni debate. Decir que hay controversia sobre las vacunas es como decir que la hay sobre la danza de la lluvia o la brujería. Simplemente, de un lado están los Abajiri, y del otro está el conocimiento. Quienes están del lado del conocimiento saben que no existe ningún baile, cante o plegaria capaz de influir sobre la dinámica de la atmósfera terrestre. Y que el mal de ojo no existe.

Como ya expliqué aquí a propósito del alegato del escritor Roald Dahl, cuya hija murió de sarampión, la vacunación no es una cuestión de libre elección personal. Y no lo es, al menos por dos motivos:

  • Quienes eligen no son los propios afectados, dado que el calendario de vacunaciones se dirige a los niños; son sus padres los que deciden, pero no son ellos quienes pueden sufrir las consecuencias de su elección. Bajo la máxima médica de “primum non nocere“, existe una obligación moral de vacunar a quienes no pueden pedir las vacunas por sí mismos. Los padres pueden sostener las creencias o ideas que les parezca, siempre que no interfieran en el derecho de sus hijos a salvaguardar su salud. Si los padres quebrantan este derecho de sus hijos, la autoridad competente debería actuar para garantizarlo. Este es el espíritu de las leyes de Australia y EEUU.
  • Una parte del efecto protector de las vacunas se basa en la inmunidad de grupo o efecto rebaño. Las vacunas son tan inofensivas que en algunos casos lo son incluso para los propios virus; hay niños que no llegan a desarrollar inmunidad, pero les protege una barrera formada a su alrededor por aquellos que sí han respondido adecuadamente a la vacuna. Un niño no vacunado abre un agujero en esta muralla, a través del cual puede propagarse una infección con el potencial de afectar a quienes recibieron las vacunas pero no están inmunizados. Un ejemplo es el brote de sarampión de Disneyland, que afectó a algunos niños vacunados.

En resumen, vacunarse no es una libre elección personal que solo afecte a quien la toma, como teñirse el pelo de un color u otro. La prohibición de fumar en espacios públicos cerrados se basa en que el humo no perjudica solo a quien lo produce, sino también a quienes le rodean. Las vacunas protegen no solo al individuo, sino a la comunidad, y por tanto declararse en rebeldía perjudica al conjunto de la sociedad.

Vacunarse es una responsabilidad social, y como tal debe ser contemplada por la ley. Ya lo es en algunos países. Esperemos que lo sea algún día también aquí. Aunque con responsables públicos de Salud dispuestos a abrir un debate con los Abajiri, no parece que estemos recorriendo ese camino.

Tonterías que se dicen: la inteligencia se hereda de la madre

Desmontar un titular bonito nunca luce; es como recoger la casa después de una fiesta. El problema es que internet ofrece a cualquier aseveración acientífica o seudocientífica el título de verdad por un día, engordando por un mecanismo de reacción en cadena. Y como en los terremotos, luego quedan las réplicas, retroalimentadas por un mecanismo circular típico de las seudociencias.

Los que tenemos como profesión contar la ciencia tenemos dos maneras de tomarnos estos casos: una, en *modo ironía*; otra, en *modo gravedad*, como si se estuviera atacando algún principio sagrado, lo que nos convierte en antipáticos inquisidores modernos. No es agradable ni para uno mismo. El problema es que, con tan buenos y buenas periodistas de ciencia en paro (me consta), leer barbaridades escritas sin el menor criterio ni conocimiento sí agravia y ofende a quienes no reciben de los medios la confianza para poner ese buen criterio y conocimiento al servicio de la información y educación científica del público.

Imagen de J. Y.

Imagen de J. Y.

Esta entradilla viene a cuento de un artículo sobre el que me ha alertado mi amiga y vecina de blog Madre Reciente, publicado en la web guiainfantil.com y titulado “La inteligencia se hereda de las madres”. Después de leerlo casi he tenido que ser atendido de urgencias (modo ironía).

El artículo en cuestión sostiene que la madre, más que el padre, transmite a sus hijos los genes relacionados con el “cociente intelectual”, ya que “el gen de la inteligencia se encuentra en el cromosoma X” y “como la madre aporta dos cromosomas X (XX), tendría el doble de posibilidades de transmitirla”. Por el contrario, del padre se heredan las emociones. La inteligencia, prosigue el artículo, se hereda en un 60%, y luego lleva un impuesto de sucesiones del 40% (perdonen, se me escapa el modo ironía).

El artículo cuenta también un experimento con ratones afirmando que se crearon animales con “más genes paternos o maternos”, que estos últimos tenían el cerebro más grande, y que el cerebro tiene, como en la maravillosa película Del revés, dos islas, una de “la alimentación, la supervivencia y el sexo”, y otra de “el desarrollo del lenguaje, la inteligencia, el pensamiento y la planificación”. Y parece que las células, según tengan más genes paternos o maternos, van a una isla o a la otra.

Quiero aclarar que esto no pretende ser un ataque personal contra la autora del artículo, cuya competencia profesional no cuestiono en materias ajenas a la ciencia. Estoy seguro de que yo escribiría barbaridades del mismo calibre si tuviera que escribir un artículo sobre fútbol, tenis o Fórmula 1. Más bien la responsabilidad es del medio, de ese y de tantos otros, que prescinden de los especialistas pensando que todo el mundo puede escribir sobre ciencia simplemente copiando lo que dicen otras webs, fomentando esa reacción en cadena de la que hablaba. También soy periodista y conozco la presión a la que estamos sometidos, pero nunca debemos permitir que esta presión llegue a quebrantar la ética periodística que esconde un titular.

Como decía Bilbo Bolsón, ¿por dónde empezar? ¡Ah, sí! Comencemos por la premisa inicial, la que según el artículo la ciencia “afirma y confirma”: que el “gen de la inteligencia” se encuentra en el cromosoma X, como al parecer “demostró” el científico estadounidense Robert Lehrke.

¿Quién era Robert Lehrke? Apenas se encuentra información sobre Robert Gordon Lehrke, psicólogo clínico del Hospital Estatal de Brainerd, en Minnesota, que en 1968 leyó su tesis doctoral titulada Sex-linked mental retardation and verbal disability (Retraso mental ligado al sexo y discapacidad verbal). Su área de especialización fue lo que entonces se llamaba “retraso mental”. Más allá de su tesis doctoral, que luego se editó en formato de libro, Lehrke apenas dejó un par de estudios publicados, dado que no era un investigador, sino un facultativo. Uno de ellos, un estudio teórico, apareció en 1972 en la revista American Journal of Mental Deficiency, bajo el título “Theory of X-linkage of major intellectual traits” (teoría de vínculo al cromosoma X de rasgos intelectuales principales).

Dado que se trataba solo de una hipótesis sin ninguna demostración, el artículo de Lehrke fue publicado junto con comentarios de otros tres expertos, a los que el propio psicólogo también respondía. Su propuesta resumía el trabajo de su tesis. Trabajando con pacientes con discapacidad mental, había observado un mayor número de hombres que de mujeres en esta población. Examinando un caso descrito en 1943 por Martin y Bell de una familia en la que la discapacidad mental afectaba solo a los hombres, y añadiendo sus propias observaciones, Lehrke propuso que el cromosoma X contenía uno o varios genes cuyas mutaciones producían “retraso mental”.

Y de hecho, en esto Lehrke estaba en lo cierto. En esto (y solo en esto, como voy a explicar) su intuición fue visionaria, ya que posteriormente se han identificado hasta 70 síndromes de discapacidad mental ligados al cromosoma X, según una revisión de 2005. Uno de los más conocidos es el Síndrome X Frágil, la segunda causa genética más frecuente de discapacidad mental después del Síndrome de Down, y la enfermedad del caso de Martin y Bell.

Pero en referencia al artículo citado y a otros que probablemente le han servido de inspiración, lo curioso es que sus autores se pasmarían si supieran qué era en realidad lo que Lehrke defendía, porque era justo lo contrario de lo que suponen. Por plantear un símil bastante bestia, lo reconozco, pero también muy intuitivo, sería como si una persona judía se basara en la ciencia nazi para justificar que ellos son diferentes. Lo explico.

La única que parece escribir sobre el trabajo de Lehrke habiéndolo leído antes es Anne Fausto-Sterling, bióloga y genetista estadounidense que ha dedicado su larga y premiada carrera a las cuestiones de género, sobre todo a derribar las falacias presuntamente científicas sobre los roles de ambos sexos. En su libro Myths of Gender: Biological Theories about Women and Men (Los mitos de género: teorías biológicas sobre las mujeres y los hombres), Fausto-Sterling atacaba el machismo de la teoría de Lehrke cuando este afirmaba que, del mismo modo que había más hombres con discapacidad mental, también había mayor proporción de genios, ya que en las mujeres la inteligencia se promediaba entre ambas copias de su cromosoma X, dando como resultado un nivel intelectual medio inferior. No se pierdan lo que Lehrke escribía:

Es altamente probable que factores genéticos básicos, y no el chovinismo masculino, expliquen al menos en parte las diferencias en el número de hombres y mujeres en los puestos que requieren los más altos niveles de capacidad intelectual.

Resumo: Lehrke pensaba que había una razón genética para que las mujeres, según él, estén menos capacitadas de cara al desempeño de trabajos intelectuales. Así, la reformulación correcta del titular del trabajo de Lehrke sería que los hombres heredan la inteligencia de sus madres, y las mujeres heredan la falta de ella.

Pero naturalmente, Lehrke estaba completamente equivocado, como bien se encarga Fausto-Sterling de argumentar aportando datos de la ciencia actual. El problema de Lehrke (aparte de la inevitable sospecha de que trataba de sostener un prejuicio propio) era que extendió sus conclusiones mucho más allá de lo que sus observaciones le permitían. Una cosa es que el cromosoma X contenga ciertos genes cuyas alteraciones provoquen discapacidad mental. Pero de ahí a pensar que ciertas variantes de esos mismos genes le hagan a uno más listo no solo es aventurado, sino que es erróneo. Imaginen un gen críticamente implicado en el desarrollo del ojo. Sus mutaciones podrían resultar en malformaciones, pero esto no significa que algunas formas de ese gen puedan producir ojos más perfectos, más grandes o en mayor número. Simplemente, si el gen funciona como debe, se producen ojos.

El motivo por el que hay más discapacidades mentales en los hombres es el mismo por el que hay más de cualquier otro trastorno ligado al cromosoma X: las mujeres tienen un backup, un segundo cromosoma X que suple las funciones si hay genes alterados. No es que, como dice el artículo, “como la madre aporta dos cromosomas X (XX), tendría el doble de posibilidades de transmitir” nada; no hay una lotería con un bombo en el que se meten dos bolas de un cromosoma para ver si así toca más fácilmente. La madre aporta (siempre) un (y solo un) cromosoma X; en el caso de las niñas, el padre aporta otro. Pero los hombres no tenemos ese backup, por lo que muchas enfermedades genéticas ligadas al X, como la hemofilia, se manifiestan en hombres, mientras que las mujeres son solo portadoras asintomáticas.

Pero además, no existe el gen de la inteligencia, ni varios. Como tampoco hay un gen de la simpatía o del gusto por la danza clásica. Solo unos pocos rasgos parecen (cada vez menos según avanza la investigación genética) ligados a un solo gen. El resto, sobre todo rasgos complejos como la (si es que alguien es capaz de definirla) inteligencia, dependen de muchísimos genes con una interdependencia enormemente compleja. Un gen no produce pelo rubio, orejas grandes o nariz respingona; los genes solo producen proteínas. Y estas participan en multitud de procesos del organismo que interactúan entre sí a través de redes inmensamente complicadas de cascadas bioquímicas, moduladas además por la influencia del entorno en el sentido más amplio, y que resultan en lo que conocemos como fenotipos.

En cuanto al asunto de los porcentajes, a lo largo del siglo XX se desató en la comunidad científica un debate heredado desde el darwinismo llamado Nature versus Nurture, o innato contra adquirido, destinado a determinar cuál era la parte de un rasgo complejo, como las conductas, atribuible a la genética, y cuánto era causado por el ambiente. Este debate se considera hoy abandonado porque la naturaleza de esos rasgos es demasiado compleja incluso individualmente, y más aún con la irrupción de la epigenética que determina la función génica según modificaciones químicas del ADN no codificadas en la secuencia. Hoy se considera que el debate no tiene sentido porque es seudocientífico, es decir, no hay una respuesta demostrable (o más bien falsable); cualquier afirmación que encuentren por ahí sobre porcentajes genéticos y ambientales pertenece al territorio de la autoayuda y la charlatanería, pero no al de la ciencia.

Frenología. Imagen de Wikipedia.

Frenología. Imagen de Wikipedia.

Me quedaría comentar el relato que hace el artículo del experimento de los ratones, pero creo que ya me he extendido demasiado por hoy y que el asunto ha quedado suficientemente claro. Baste decir que, ¡por favor!, la película Del revés, aunque magnífica, era solo eso, dibujos animados; en realidad la tristeza no es un muñequito azul con jersey de cuello vuelto. El cerebro no tiene islas. No hay un trozo de cerebro que podamos poner encima de la mesa y decir: ahí está el sexo, o la soledad. Ojalá: si una persona sufriera un traumatismo encefálico grave, como un disparo en la cabeza, el médico podría decir a los familiares del paciente: “Ha tenido suerte porque solo le ha afectado a la región de la planificación; no podrá volver a hacer planes en el resto de su vida, pero por lo demás estará estupendamente”.

Y naturalmente, tampoco el tamaño del cerebro tiene absolutamente nada que ver con la inteligencia. Tamaño y áreas discretas fueron las bases de una teoría del siglo XIX llamada frenología que fue desacreditada en el XX. Ironías del destino, tras la muerte de su impulsor principal, el alemán Franz Joseph Gall, el análisis de su cerebro reveló que su tamaño era inferior a la media, como también era más pequeño de lo normal el de Albert Einstein.

En resumen, la inteligencia se hereda en parte de la madre, en parte del padre, en parte se ve afectada por innumerables factores ambientales, y en parte se desarrolla con esfuerzo y ejercicio mental, aunque nadie puede ni podrá jamás determinar en qué partes; ni en general, ni individualmente. Y en cuanto al artículo, y recordando aquel curso de ética periodística que hace unos años impartía Juanjo de la Iglesia en el Caiga quien caiga, el titular adecuado habría sido “las discapacidades mentales están más frecuentemente ligadas al cromosoma X”. Claro que este titular no solo es algo ya conocido desde hace casi medio siglo, sino que tampoco tendría tantos retuits.

Cosméticos con liposomas, otro timo que tampoco se irá

Apostaría mi calavera a que la reciente absolución científica del colesterol como gran satán de la dieta apenas va a cambiar el concepto que está tan instalado en la calle.

Como recordatorio de lo que ya he contado aquí, sucesivos estudios fracasaron al intentar demostrar esa idea preconcebida hace varias décadas sin ningún fundamento real, a saber, que a más colesterol en la dieta, más colesterol en sangre. En vista de las tozudas pruebas de que esto sencillamente no funciona tan sencillamente, y que incluso obligaron a una retractación por parte del proponente original de esta errónea idea, la nueva edición de las recomendaciones nutricionales de EEUU publicada a principios de este año ha eliminado la restricción del colesterol en la dieta, dando luz verde a que cada uno se sirva lo que le apetezca sin aumentar su riesgo de caer fulminado por un patatús coronario.

Resumo para que quede más claro: la primera potencia científica del mundo ya ha reconocido oficialmente que comer alimentos ricos en colesterol no perjudica la salud.

Pero como digo, difícilmente va a lograrse que el conocimiento de esta realidad permee en la calle. Por desgracia, la publicidad es mucho más poderosa que la divulgación científica. Hay mucha gente que duda de que el hombre llegara a la Luna, de que las vacunas sean seguras o de que la actividad humana haya alterado el clima terrestre, y sin embargo muchos parecen tragarse sin masticar la milonga que un fulano muy serio les cuenta en los intermedios de las pelis sobre lo necesario que es meterse entre pecho y espalda una ración de crustáceo antártico a la salsa de omega-3 (a pesar de que el omega-3 tampoco hace lo que dicen que hace).

En torno a las grasas de la dieta hay montado un inmenso negocio nutracéutico que va a explotar todos los recursos a su alcance para lograr perpetuar las falacias, del mismo modo que la industria del tabaco trató durante décadas de impedir un cambio de percepción que empañara la imagen pública de su producto. Es cierto que en el caso del tabaco este cambio acabó produciéndose, pero cabe preguntarse si habría ocurrido lo mismo en ausencia de las campañas promovidas por las autoridades oficiales.

En el caso del colesterol es dudoso que exista este apoyo, dado que los alimentos bajos en colesterol no hacen nada malo. Simplemente, tampoco hacen nada bueno, y este planteamiento es el mismo que mantiene en la calle y en la legalidad, por ejemplo, a los productos homeopáticos, o a los videntes radiotelevisivos que en sus anuncios evitan escrupulosamente arrogarse ninguna capacidad de videncia; se limitan a presentarse como psicólogos alternativos: “si hay algo que te preocupa, nuestro equipo de profesionales [¿?] puede ayudarte”, dicen, viajando por el universo sobre un estrellado fondo de constelaciones.

Ilustración del corte de un liposoma. Imagen de Wikipedia.

Ilustración del corte de un liposoma. Imagen de Wikipedia.

Ahora tenemos otros dos ejemplos de timos derribados por la ciencia, pero tan rentables que también están destinados a perdurar. El primero (el segundo, mañana) es un viejo conocido de la mitología parafarmacéutica: los liposomas en las cremas cosméticas. Los liposomas son una especie de microcélulas artificiales vacías que pueden rellenarse con lo que uno desee. La idea es que se pueden encapsular sustancias en su interior para que lleguen al lugar deseado. Y de hecho, pueden utilizarse de este modo como vehículos para administrar fármacos dentro del organismo. Pero otra cosa es que sean capaces de atravesar la piel, como aseguran las compañías cosméticas.

Y no, no lo hacen. Ya no recuerdo cuándo leí el primer estudio demostrando que los liposomas sobre el cutis hacían lo mismo que cualquiera que no sea Harry Potter tratando de atravesar la entrada al andén 9¾. Pero sí recuerdo el último, porque se ha publicado esta misma semana, y las técnicas de análisis cada vez más avanzadas ya no dejan lugar a dudas.

Investigadores de la Universidad del Sur de Dinamarca ya habían demostrado en 2013 que los liposomas se desbaratan y pierden su carga útil en el momento en que tocan la piel, lo que deja ahí, sencillamente tiradas sobre el cutis, a las moléculas presuntamente beneficiosas que debían viajar cómodamente en su vehículo hasta las capas profundas de células vivas. Ahora, el mismo equipo ha perfeccionado su método, basado en una avanzada nanoscopía que permite observar directamente los liposomas individuales, y su conclusión es tajante.

Así lo cuenta el director del estudio publicado en la revista PLOS One, Jonathan Brewer: “De una vez por todas, establecemos que los liposomas intactos no pueden penetrar la superficie de la piel. Por tanto, debemos revisar la manera en que percibimos los liposomas, especialmente en la industria del cuidado de la piel, donde los liposomas se perciben como esferas protectoras que transportan agentes a través de la barrera cutánea”.

Contrariamente a lo que cualquiera acostumbrado a otros campos de la actividad humana podría sospechar, el propósito de estos científicos, como el de tantos otros, no es encabezonarse en tener razón para no ceder ni un ápice desde sus planteamientos previos (por favor, ni se les ocurra pensar que me estoy refiriendo a la política), sino simplemente poner a prueba un principio comúnmente aceptado sin la debida validación científica. Es probable que a estos investigadores les hubiera resultado mucho más rentable demostrar que los liposomas funcionan a las mil maravillas, porque la industria cosmética pone mucho dinero en juego.

Pero la realidad es la realidad. Y con honestidad, los científicos precisan que no pueden negar la posibilidad de que alguna reacción química en la piel pudiera ayudar a que los agentes encerrados en los liposomas atraviesen la frontera cutánea: “Cuando los liposomas tocan la piel y se rompen, no es seguro que los agentes activos se pierdan; pudiera ser que se iniciara alguna reacción química que de alguna manera ayudara a los agentes a viajar a través de la barrera de la piel”. De hecho, como también conté aquí, algunas cremas o esas soluciones antisépticas de manos que se usan en hospitales y baños de oficinas pueden facilitar que ciertos compuestos penetren en la piel, incluyendo contaminantes del entorno que preferiríamos mantener fuera de nosotros.

Pero para lograr esto, construir algo tan sofisticado como un liposoma es una manera inútilmente costosa de matar moscas a cañonazos, porque incluso si hacen algo “es de una manera diferente a como nos cuenta la industria de la belleza”, dice Brewer.