BLOGS
Ciencias mixtas Ciencias mixtas

Los secretos de las ciencias para
los que también son de letras

Entradas etiquetadas como ‘medicina’

Así es un cerebro humano fresco

Un cerebro humano fresco no es algo con lo que uno se encuentre habitualmente, salvo que se dedique profesionalmente a la neurocirugía o a la ciencia forense. Por supuesto, en la carrera de biología nunca veíamos algo así, pero incluso muchos estudiantes de medicina de todo el mundo no tienen contacto sino con cerebros conservados en formol, un agente fijador que desnaturaliza las proteínas, confiriendo una consistencia firme y gomosa muy distinta de la del tejido fresco.

Personalmente, a lo más que he llegado es al de cordero, y fue hace ya varias décadas, con ocasión de un trabajo escolar. Si no me falla la memoria, fui con mi amigo Pablo al mercado, donde compramos un blíster de plástico que contenía un seso entero y fresco. Aquella mercancía debía haber encontrado su destino más probable en unos huevos revueltos, como en aquellos Duelos y Quebrantos del Quijote. Pero aquel cerebro en concreto sirvió al improbable propósito de un trabajo de ciencias de dos críos de la extinta EGB.

Imagen de YouTube.

Imagen de YouTube.

Recuerdo que aquel órgano se notaba extremadamente delicado y frágil al tacto, como gelatina. Se le quedaba marcada la forma del blíster, y uno comprendía entonces por qué la naturaleza nos ha dado un robusto baúl de hueso para guardarlo y un cojín líquido para amortiguar los golpes.

Sin embargo, entre un cerebro de cordero y otro humano hay un enorme salto que trasciende lo evolutivo. Nos reconocemos, nos relacionamos e incluso nos gustamos o no a través de nuestra fachada. Pero en realidad todo lo que somos, lo que hemos sido y lo que seremos está en ese poco menos de kilo y medio, en su mayoría grasa, que el físico Michio Kaku y otros científicos han calificado como el objeto más complejo del universo. Así lo escribió Francis Crick, el codescubridor de la doble hélice de ADN:

Tú, tus alegrías y tus penas, tus recuerdos y ambiciones, tu sentido de identidad personal y de libre albedrío, de hecho no son más que el comportamiento de un vasto ensamblaje de células nerviosas y sus moléculas asociadas.

Hoy les traigo este vídeo con fines didácticos presentado por la neuroanatomista Suzanne Stensaas, de la Universidad de Utah (EEUU). Stensaas muestra un cerebro humano fresco extraído de una persona fallecida de cáncer que ha donado su cadáver a la ciencia. “Es mucho más blando que la mayoría de la carne que puedes ver en el mercado”, dice la doctora, explicando que el cerebro lleva un cordón atado para poder suspenderlo en un cubo y fijarlo en formol, ya que si lo dejaran simplemente en el fondo se desparramaría como lo que es, un pedazo de grasa. Pásmense ante esta increíble y vulnerable maravilla, pero no lo olviden: ahí dentro está toda una vida.

Los Nobel, uno fresco, otro rancio, y siempre dejan a alguien fuera

Como cada año por estas fechas, no puede faltar en este blog un comentario sobre lo que nos ha traído la edición de turno de los premios Nobel. Y aunque cumplo con esta autoimpuesta obligación, debo confesarles que lo hago con la boca un poco pastosa. No por desmerecer a los ganadores, siempre científicos de altísimos logros, sino por otros motivos que año tras año suelo traer aquí y que conciernen a los propios premios.

Imagen de Wikipedia.

Imagen de Wikipedia.

En primer lugar, están los merecimientos no premiados de los que siempre se quedan por debajo de la línea de corte. Ya lo he dicho aquí, y no descubro nada nuevo: ya no hay Ramones y Cajales encerrados a solas en su laboratorio. Vivimos en la época de la ciencia colaborativa y a veces incluso multitudinaria, donde algunos estudios vienen firmados por miles de autores. No exagero: hace un par de años, un estudio de estimación de la masa del bosón de Higgs batió todos los récords conocidos al venir firmado por una lista de 5.154 autores. Nueve páginas de estudio, 24 páginas de nombres.

En el caso que nos ocupa, el Nobel de Física 2017 anunciado esta semana ha premiado la detección de ondas gravitacionales, un hito histórico que se anunció y publicó por primera vez en febrero de 2016, que confirmó la predicción planteada por Einstein hace un siglo y que según los físicos abre una nueva era de la astronomía, ya que enciende una nueva luz, que en este caso no es luz, para observar el universo.

Pero aunque sin duda el hallazgo merece los máximos honores que puedan concederse en el mundo de la ciencia, el problema es que los Nobel fueron instituidos por un tipo que murió hace 121 años, cuando la ciencia era cosa de matrimonios Curies investigando en un cobertizo. Y las normas de los Nobel dicen que como máximo se puede premiar a tres científicos para cada categoría.

Los agraciados en este caso han sido Rainer Weiss, Barry Barish y Kip Thorne, los tres estadounidenses, el primero nacido en Alemania. Weiss se queda con la mitad del premio, mientras que Barish y Thorne se reparten el otro 50%.

No cabe duda de que los tres lo merecen. Weiss fue quien inventó el detector que ha servido para pescar por primera vez las arrugas en el tejido del espacio-tiempo, producidas por un evento cataclísmico como la fusión de dos agujeros negros. Thorne ha sido la cabeza más visible en el desarrollo de la teoría de las ondas gravitacionales, además de ser un divulgador mediático y popular: creó el modelo de agujero negro que aparecía en la película Interstellar. Por su parte, Barish ha sido el principal artífice de LIGO, el detector que primero observó las ondas gravitacionales y que se construyó según el modelo de Weiss apoyado en la teoría de Thorne.

Pero más de mil científicos firmaron el estudio que describió la primicia de las ondas gravitacionales. Sus diversos grados de contribución no quedan reflejados en la lista de autores, ya que en casos así no se sigue la convención clásica de situar al principal autor directo del trabajo en primer lugar y al investigador senior en el último; aquí la lista es alfabética, sin un responsable identificado. El primero de la lista era un tal Abbott, cuyo único mérito para que aquel estudio histórico ahora se cite como “Abbott et al.” fue su ventaja alfabética. De hecho, había tres Abbotts en la lista de autores.

¿Se hace justicia premiando solo a tres? Tengo para mí que los físicos especializados en la materia, sobre todo quienes hayan participado de forma más directa o indirecta en este campo de estudio, tal vez tengan la sensación de que queda alguna cuenta no saldada.

Como mínimo, habrá quienes achaquen al jurado que haya olvidado la importantísima contribución de Virgo, el socio europeo del experimento LIGO. Ambos nacieron de forma independiente en los años 80, LIGO en EEUU y Virgo en Italia como producto de una iniciativa italo-francesa. Con el paso de los años, LIGO y Virgo comenzaron a trabajar en una colaboración que estaba ya muy bien trabada antes de que el detector estadounidense lograra la primera detección de las ondas gravitacionales. La cuarta detección de ondas de este tipo, anunciada hace solo unos días, se ha producido en paralelo en LIGO y en Virgo. ¿Es justo dejar a los artífices del proyecto europeo sin el reconocimiento del Nobel?

Por supuesto, son las normas de los premios. Pero miren esto: el testamento de Nobel no mencionaba en absoluto a tres premiados por cada categoría, sino que se refería simplemente a “la persona que…”. Por lo tanto, si se trata de ceñirse estrictamente a la última voluntad del fundador de los premios, estos no deberían repartirse.

Pero la limitada representatividad de la lista de premiados no es el único defecto de los Nobel. Otro que también he comentado aquí en años anteriores es la tendencia a premiar trabajos tan antiguos que ni sus autores ya se lo esperaban, si es que siguen vivos. Y en esto tampoco se respetan las instrucciones de Alfred Nobel, ya que él especificó que los premios deberían concederse a quien “durante el año precedente haya conferido el mayor beneficio a la humanidad”.

Si al menos este año en Física se ha premiado ciencia fresca y puntera, no ocurre lo mismo con la categoría de Fisiología o Medicina. Los tres galardonados, Jeffrey Hall, Michael Rosbash y Michael Young, todos estadounidenses, lograron sus avances fundamentales sobre los mecanismos moleculares del reloj biológico (los ritmos circadianos) allá por los años 80.

De hecho, hay un dato muy ilustrativo. A diferencia del caso de las ondas gravitacionales, en el campo de los ritmos circadianos sí hay dos nombres que muy claramente deberían encabezar una lista de candidatos a recibir los honores: Seymour Benzer y su estudiante Ron Konopka, los genetistas estadounidenses que primero descubrieron las mutaciones en los genes circadianos con las cuales pudo escribirse la ciencia moderna de la cronobiología. Pero Benzer falleció en 2007, y Konopka en 2015. Y no hay Nobel póstumo. El premio en este caso se ha concedido a una segunda generación de investigadores porque se ha concedido tan a destiempo que los de la primera murieron sin el debido reconocimiento.

En este caso, los Nobel pecan una vez más de conservadurismo, de no apostar por avances más recientes cuyo impacto está hoy de plena actualidad en las páginas de las revistas científicas. Por ejemplo, CRISPR, el sistema de corrección de genes que abre la medicina del futuro y en el que nuestro país tiene un firme candidato al premio, el alicantino Francisco Martínez Mojica. Pero dado que este avance también puede optar al Nobel de Química, que se anuncia hoy miércoles dentro de un rato, de momento sigamos conteniendo la respiración.

El 99% de los microbios que viven en nosotros son desconocidos para la ciencia

La ciencia tiene algo de carrera hacia el horizonte: cuanto más corremos, más parece alejarse, ya que cada nueva respuesta levanta una cantidad ingente de preguntas. Lo importante es el nuevo territorio que descubrimos por el camino, aunque sirva también para hacernos notar todo lo que nos queda aún delante por conocer.

Uno de esos territorios entre los más desconocidos es el de los microbios, los verdaderos reyes de la naturaleza, los seres más abundantes del planeta, los que estaban aquí mucho antes que nosotros, seguirán cuando nosotros ya no estemos, y en el camino se han adueñado de todos los hábitats terrestres, incluso aquellos en los que cualquier otro ser vivo moriría cocido, asado, asfixiado, irradiado o congelado.

Incluso nuestro propio cuerpo: si contamos por número de células, somos tanto o más microbios de lo que somos nosotros mismos. Hasta hace poco solía pensarse que el organismo humano tenía diez veces más células microbianas que propias. En 2016 un estudio corrigió la estimación, calculando que ambas cifras están más próximas, unos 38 billones de bacterias frente a 30 billones de células humanas en una persona media de 70 kilos.

Bacterias Pseudomonas aeruginosa al microscopio eléctronico. Imagen de Wikipedia.

Bacterias Pseudomonas aeruginosa al microscopio eléctronico. Imagen de Wikipedia.

Claro que si añadiéramos los virus, que este estudio no incluía, las cifras volverían a volcarse masivamente a favor de nuestros pequeños huéspedes. Durante una gripe nuestro cuerpo puede verse invadido por cien billones de virus. Un estudio descubrió que cada persona sana alberga en su cuerpo una media de cinco tipos de virus que pueden hacernos enfermar, pero además llevamos dentro otros muchos que son inofensivos para nosotros, incluyendo los que no infectan a nuestras propias células, sino a esos 38 billones de bacterias. El número de ceros casi llega a marear.

La inmensa mayoría de todos estos microbios (incluyo a los virus, aunque para muchos científicos no son realmente seres vivos) son desconocidos para la ciencia. Tradicionalmente los científicos solo podían llegar a conocer los microbios que podían cultivarse en el laboratorio, y estos son solo una pequeñísima proporción, incluyendo los que requieren medios de cultivo con ingredientes tan exóticos como la sangre. Los virus, además, necesitan células en las que vivir.

Con todo esto, no sorprende que un estudio de 2016 cifrara en un 99,999% la proporción de tipos de microbios que aún no se conocen, de un total estimado de un billón de especies en la Tierra. Y esto contando bacterias, protozoos y hongos, pero sin incluir los virus.

Más recientemente, los investigadores comenzaron a ser capaces de tomar muestras complejas, por ejemplo agua del océano, y pescar la diversidad de microbios presente en ellas a través de su ADN. Es algo así como una versión genética de hacer una foto a una muchedumbre, pero el resultado es más o menos igual de frustrante: un montón de caras, o fragmentos de ADN, pertenecientes a un montón de personas, o microbios, de los que no se sabe absolutamente nada y a los que es imposible identificar.

Esta pesca de ADN en masa es la que ha aplicado ahora un equipo de investigadores de la Universidad de Stanford (EEUU) a otro peculiar océano, el que circula por nuestras venas. En realidad el propósito inicial de los científicos no era pescar microbios; su intención era examinar el ADN libre que circula por la sangre de los pacientes trasplantados para ver si podían correlacionar la cantidad de ADN del donante con el rechazo del órgano. Este estudio suele hacerse mediante una biopsia molesta e invasiva, y los investigadores trataban de comprobar si podía sustituirse por un simple análisis de sangre: si hay mucho ADN del órgano trasplantado en la sangre, significa que el cuerpo del paciente lo está destruyendo.

Pero en esta pesca masiva de ADN en el río de la sangre, los investigadores encontraron también algo que ya esperaban: innumerables trocitos de genes de microbios. Lo que no esperaban tanto era la proporción de estos microbios que son unos completos desconocidos para la ciencia: un 99%. Solo uno de cada cien de estos microbios es algo cuyos genes ya figuran en las bases de datos, según el estudio publicado en PNAS.

Lo que sí han podido hacer los científicos es comparar estos misteriosos microbios con otros que ya se conocen, y así han llegado a la conclusión de que la mayoría de las bacterias pertenecen a un grupo llamado proteobacterias. Lo cual tampoco es mucho decir, ya que se trata de un grupo inmenso que incluye bacterias tan diversas como las que causan diarreas, cólera, peste o úlceras, o las que viven en las plantas para chupar el nitrógeno de la atmósfera.

En cuanto a los virus, el resultado es más sorprendente, porque la mayoría de los detectados pertenecen a un grupo que no se descubrió hasta 1997, conocido como Torque Teno Virus (TTV) o Virus Transmitidos por Transfusión. Hasta ahora se conocían dos grupos, uno que vive en animales y otro que infecta a las personas, pero sobre este último no está del todo claro hasta qué punto son peligrosos para nosotros. Se sabe que es muy común en las personas sin síntomas aparentes, pero también que aparece en enfermedades hepáticas, sobre todo en pacientes trasplantados, y posiblemente en otras patologías.

Los TTV descubiertos por los investigadores de Stanford son totalmente nuevos, distintos a los ya conocidos en humanos y animales. Lo cual implica que no se sabe absolutamente nada sobre lo que podrían hacernos. Pero los resultados del estudio sugieren que un grupo de virus hasta ahora minoritario y casi desconocido tiene en realidad un protagonismo en nuestro cuerpo mucho mayor de lo que nadie sospechaba. Y teniendo en cuenta que están presentes hasta en más del 90% de los adultos y que se transmiten por transfusión sanguínea, ¿hace falta algo más para llegar a la conclusión de que nos conviene bastante saber más sobre los TTV?

Esta niña estuvo muerta dos horas, y hoy lleva una vida normal

En febrero de 2016, la madre de Eden Carlson estaba tomando una ducha en su casa de Fayetteville, Arkansas (EEUU), sin saber que aquel rato rutinario de aseo iba a cambiar su vida trágicamente. La pequeña de dos años, al parecer una auténtica exploradora y escapista, burló la valla antibebés, abrió la pesada puerta de su casa y caminó por el jardín hasta caer a la piscina. Cuando su madre la encontró, llevaba 15 minutos flotando en el agua, sin vida.

Eden Carlson, antes del accidente. Imagen de YouTube.

Eden Carlson, antes del accidente. Imagen de YouTube.

De inmediato, la madre le practicó Reanimación Cardiopulmonar (RCP), sin éxito. Eden fue trasladada al Centro Médico Regional Washington de su ciudad, donde los médicos comprobaron que no tenía latido cardíaco ni pulso, no respiraba, tenía las pupilas fijas y dilatadas y una temperatura corporal de 28,9 °C. En la Escala de Coma de Glasgow, que suma las puntuaciones del grado de respuesta según tres criterios diferentes, era un 3, el equivalente a la muerte.

Pero los médicos se resistían a perderla. Por fin, después de casi dos horas de resucitación y 17 inyecciones de epinefrina, el corazón de la niña volvió a latir. Una vez estabilizada, fue trasladada por aire al Hospital Infantil de Arkansas, en Little Rock, donde los médicos encontraron un panorama devastador: sus órganos vitales no funcionaban, su sangre tenía un peligroso nivel de acidez y una presión por los suelos, y los daños cerebrales eran profundos, con una extensiva pérdida de las sustancias gris y blanca. Le dieron entre 2 y 48 horas de vida.

Eden Carlson, después de su reanimación. Imagen de YouTube.

Eden Carlson, después de su reanimación. Imagen de YouTube.

Contra toda esperanza, la niña resistió. Durante 10 días recibió ventilación mecánica, hasta que pudo empezar a respirar de forma autónoma. A los 35 días de su ahogamiento fue dada de alta y regresó a casa, pero en estado semivegetativo: “sin respuesta a ningún estímulo, inmóvil, con las piernas flexionadas sobre el pecho y con constante agitación y movimiento de cabeza”, escriben los médicos en el informe del caso, publicado en la revista Medical Gas Research.

La pequeña Eden parecía encarar la perspectiva de una vida muy mermada y completamente dependiente de cuidados constantes. Pero de alguna manera que no se precisa en el estudio, sus padres oyeron hablar de la terapia hiperbárica de oxígeno aplicada por Paul Harch, un médico de la Facultad de Medicina y Hospital de la Universidad Estatal de Luisiana en Nueva Orleans.

La terapia hiperbárica de oxígeno (HBOT, en inglés) es algo que todos hemos visto en las películas de submarinismo. Son esas cámaras de alta presión donde los buceadores deben permanecer para evitar que la descompresión les forme burbujas letales en la sangre. Al reducir la presión atmosférica lentamente y no de golpe, el tamaño de las burbujas disminuye y se consigue que el gas se disuelva en la sangre sin efectos dañinos.

Este fue el uso original para el que se inventaron las cámaras hiperbáricas (de alta presión), pero con el tiempo los médicos han ido explorando otras aplicaciones, como el tratamiento de la gangrena gaseosa (la necrosis de tejidos por una infección que produce gas) o del envenenamiento con monóxido de carbono. Actualmente se ensaya su posible utilidad en un sinnúmero de enfermedades y trastornos, pero en la mayoría de los casos sin resultados convincentes.

Harch, uno de los principales especialistas mundiales en HBOT, pensó que el caso de Eden era potencialmente apto para beneficiarse de esta terapia, ya que se trataba de una niña muy pequeña, y por tanto con tejidos, incluido el cerebral, que aún conservaban una gran capacidad de regeneración. Dado que no existía cámara hiperbárica en el lugar donde Eden vive, Harch prescribió terapia normobárica (a presión ambiental) de oxígeno puro durante 45 minutos dos veces al día, comenzando en el día 55 después del ahogamiento.

“Al cabo de horas, la paciente estaba más alerta, despierta, y dejó de agitarse”, escriben Harch y su colaborador, el radiólogo Edward Fogarty. “La tasa de mejora neurológica aumentó durante los 23 días posteriores con la capacidad de reír, mover los brazos y manos, agarrar objetos con la mano izquierda, alimentación oral parcial, seguimiento con los ojos y un nivel de habla similar al preahogamiento, pero con menor vocabulario”.

La niña siguió también terapias de rehabilitación, y 78 días después del accidente se trasladó a Nueva Orleans para seguir un programa de HBOT dirigido por Harch, con un total de 40 sesiones de 45 minutos al día. Y como muestran los vídeos, el estado de Eden mejoró espectacularmente hasta un nivel, según su madre, “casi normal, excepto por la función motora general”.

Eden Carlson, nueve meses después del ahogamiento. Imagen de YouTube.

Eden Carlson, nueve meses después del ahogamiento. Imagen de YouTube.

Al término del tratamiento, esta era la situación de la niña descrita en el estudio: “camina asistida, nivel de habla superior al preahogamiento, función motora casi normal, cognición normal, mejora en casi todas las anomalías neurológicas examinadas, interrupción de la medicación, y déficits residuales emocionales, en el temperamento y la marcha”. Los escáneres cerebrales mostraban una “casi completa reversión de la atrofia cortical y de sustancia blanca”. Harch y Fogarty subrayan que, hasta donde han podido saber, la impresionante recuperación de Eden es un caso “no descrito con ninguna otra terapia”.

Pero mejor que leerlo es verlo. El primero de los vídeos recoge la historia y los progresos de Eden hasta mayo de 2016, al comienzo del tratamiento HBOT. En el segundo, publicado en noviembre de 2016, Eden da las gracias a todas las personas que la ayudaron en esta cuasimilagrosa recuperación. Así es hoy la niña que estuvo casi dos horas muerta, y para quien aquella dramática experiencia apenas dejará otra secuela que un mal recuerdo, si es que llega a recordar algo. Y les aviso: tengan los pañuelos de papel a mano.

Pero no; esperen, que aún no hemos terminado. No creo oportuno comentar nada sobre la aureola de plegarias respondidas y milagros divinos con la que los padres rodean la historia de la recuperación de Eden. Pero sí es importante indagar en las implicaciones científicas del caso, y en concreto la respuesta a la pregunta que cualquiera se formulará después de leer la historia de Eden:

¿Es la terapia hiperbárica de oxígeno una nueva panacea?

No soy yo quien puede responder a esta pregunta, excepto con una regla general: casi nada es una nueva panacea. En el caso de Eden y con independencia de la eficacia de la HBOT, se aliaban dos circunstancias sin las cuales esta deslumbrante recuperación habría sido más que improbable.

Por un lado, la pequeña cayó a la piscina en febrero. El agua, según documentan los autores del estudio, estaba a 5 °C. El frío conservó el organismo de Eden casi en hibernación, ralentizando la degeneración de los tejidos. Durante todo el proceso de resucitación, el cuerpo de la pequeña se mantuvo en hipotermia; para eso servían las fundas azules que la niña lleva en la foto de arriba.

Por otro, a la edad de dos años la capacidad de recuperación del organismo es pasmosa. Hoy se ha abandonado el dogma clásico según el cual el sistema nervioso humano era una máquina terminada sin ninguna posibilidad de reparación tras una avería; las neuronas tienen una cierta capacidad regenerativa que puede potenciarse con ayudas terapéuticas. Además, el cerebro posee también un cierto margen para desviar algo de las funciones de los circuitos dañados a otras zonas sanas, como cuando se desvía el tráfico de una carretera cortada a otra abierta. Tanto esta plasticidad cerebral como la capacidad de regeneración son especialmente aprovechables en niños pequeños, cuando el sistema nervioso aún está creciendo.

El problema con la HBOT es que, más allá de su acción física en la descompresión, en lo referente a su actuación celular y molecular aún no se sabe cómo funciona, si es que realmente funciona. Se asume que el mayor flujo de oxígeno facilita la cicatrización celular y dispara señales metabólicas que activan los procesos regenerativos para combatir los daños en los tejidos y las infecciones. En casos concretos de estas dos situaciones se ha mostrado eficaz, pero los mecanismos aún solo pueden explicarse a grandes rasgos. En su estudio, Harch y Fogarty se limitan a una especulación razonable en una sola frase para justificar la recuperación de Eden: “La explicación más probable es el crecimiento de las sustancias [cerebrales] gris y blanca inducido por la señalización génica hiperóxica e hiperbárica”.

De hecho, los dos médicos ni siquiera están seguros de hasta qué punto la secuencia concreta del tratamiento de Eden ha sido importante o no en su recuperación: “aunque es imposible concluir de este caso individual si la aplicación secuencial de oxígeno normobárico y después HBOT es más eficaz que solo HBOT, en ausencia de HBOT la terapia normobárica de oxígeno repetitiva y de corta duración puede ser una opción hasta que la HBOT esté disponible”, dice Harch en una nota de prensa.

¿Por qué entonces no se sometió a la niña a HBOT desde un principio? No se explica, pero se sospecha que la razón no es médica, sino simplemente económica; el cochino dinero. En el primer vídeo, los padres aclaran que su seguro médico no cubre la HBOT. La web de Medicare, el pálido remedo de Seguridad Social en EEUU, recoge que la HBOT está cubierta solo en ciertas circunstancias, entre las cuales no se incluyen los casos de ahogamiento, y siempre con un 20% de copago por parte del paciente. Según cifras que circulan por ahí, una hora de HBOT puede costar más de 1.000 dólares. Y dado que en sus vídeos los Carlson agradecen la ayuda de los donantes, todo indica que Eden no recibió esta terapia hasta el momento en que sus padres pudieron costearla con donaciones.

Y por supuesto, también en el caso de Eden hay un conflicto de interés que queda bien especificado en el estudio, como ahora es obligatorio en (casi) toda publicación científica, según expliqué recientemente: Harch es “copropietario de Harch Hyperbarics, Inc., una corporación dedicada a la consultoría y el testimonio experto sobre medicina hiperbárica”. Es decir, que Harch posee una empresa dedicada a promover el uso de la HBOT. También es necesario destacar que el caso de Eden se ha publicado en una revista científica muy sectorial y minoritaria, Medical Gas Research, a cuyo comité editorial pertenecen tanto Harch como los dos referees o revisores que han aprobado su estudio (en las revistas de acceso abierto como esta, a menudo los nombres de los referees se hacen públicos después de la aceptación de un estudio).

¿Significa todo esto que habría que marcar el estudio con un banderín rojo de alerta? ¿Significa que la HBOT podría caer en el terreno gris cercano a la pseudociencia?

No y no. En cuanto a lo primero, ahí están los evidentes progresos de Eden. La ventaja que tienen los médicos con casos clínicos como el de la pequeña es que los resultados son indiscutibles. Incluso aunque las causas no lo sean: los propios autores reconocen las limitaciones del estudio. Y por supuesto, no hay otras Edens que no hayan seguido el mismo curso terapéutico para comparar su evolución sin terapia normobárica, sin HBOT o sin ninguna de las dos.

Respecto a lo segundo, la medicina hiperbárica se ha ensayado desde hace siglos, desde los años 30 del siglo pasado se ha empleado en submarinismo, y desde hace décadas se estudia en una amplísima gama de trastornos. Para la mayoría de ellos no hay pruebas de eficacia real, pero sí para algunos. Si se prescribe un anticatarral contra el catarro, es ciencia; si se prescribe contra el cáncer, es pseudociencia. La HBOT también se ha probado contra el cáncer, sin éxito aparente. Harch está demostrando que puede ser útil para la neurorregeneración en ciertos casos, pero aún queda mucho camino por delante.

Así que no se apresuren a comprarse una cámara hiperbárica, si es que pueden costearla. No, Michael Jackson no dormía en una de estas cámaras. Es solo un mito: la compró para un hospital local y se hizo una foto dentro de ella para alimentar su imagen excéntrica. Y lo cierto es que la HBOT también tiene sus riesgos, razón por la cual se limitan los tiempos de tratamiento. La alta presión puede perjudicar los huecos corporales rellenos de aire, como el oído interno o los senos nasales. Tampoco se apresuren a buscar el bar de oxígeno más próximo a su casa; somos seres que nacimos respirando una atmósfera con solo un 21% de oxígeno. Una dosis más alta puede ser entre inútil y muy tóxica; tal vez incluso un factor de riesgo de cáncer. Por el momento, esperemos a ver si la HBOT va superando pequeños grandes pasos como el de Eden.

El cómico John Oliver habla sobre las vacunas, y no se lo pierdan

Decía Carl Sagan que en ciencia es frecuente comprobar cómo un científico cambia de parecer y reconoce que estaba equivocado, cuando las pruebas así lo aconsejan. Y que aunque esto no ocurre tanto como debería, ya que los científicos también son humanos y todo humano es resistente a abandonar sus posturas, es algo que nunca vemos ocurrir en la política o la religión.

Imagen de YouTube.

Imagen de YouTube.

Los que tratamos de adherirnos a esta manera de pensar, sea por formación científica o por tendencia innata, que no lo sé, solemos hacerlo con cierta frecuencia. Personalmente, durante años estuve convencido de que la solución a la creencia en las pseudociencias estaba en más educación científica y más divulgación. Hasta que comencé realmente a indagar en lo que los expertos han descubierto sobre esto. Entonces me di cuenta de que mi postura previa era simplista y poco informada, y cambié de parecer.

Resulta que los psicólogos sociales descubren que los creyentes en las pseudociencias son generalmente personas con un nivel educativo y un interés y conocimiento científicos comparables al resto. Resulta que los mensajes públicos basados en las pruebas científicas no solo no descabalgan de sus posturas a los creyentes en las pseudociencias, sino que incluso les hacen clavar más los estribos a su caballo. Resulta que los psicólogos cognitivos y neuropsicólogos estudian el llamado sesgo cognitivo, un mecanismo mental por el cual una persona tiende a ignorar o minimizar toneladas de pruebas en contra de sus creencias, y en cambio recorta y pega en un lugar prominente de su cerebro cualquier mínimo indicio al que pueda agarrarse para darse la razón a sí misma. Es, por ejemplo, la madre de un asesino defendiendo pese a todo que su hijo es inocente, aunque haya confesado.

Pero el sesgo cognitivo no solo actúa a escala personal, sino también corporativa, en el sentido social de la palabra, como identificación y pertenencia a un grupo: parece claro que muchas organizaciones ecologistas jamás de los jamases reconocerán las apabullantes evidencias científicas que no han logrado, y mira que lo han intentado, demostrar ningún efecto perjudicial de los alimentos transgénicos. Lo cual aparta a muchas organizaciones de lo que un día fue una apariencia de credibilidad científica apoyada en estudios. Y tristemente, cuando esa credibilidad científica desaparece, a algunos no nos queda más remedio que apartarnos de esas organizaciones: si niegan los datos en una materia, ¿cómo vamos a creérselos en otras?

El neurocientífico y divulgador Dean Burnett me daba en una ocasión una interesante explicación evolutiva del sesgo cognitivo. Durante la mayor parte de nuestra historia como especie, decía Burnett, aún no habíamos descubierto la ciencia, la experimentación, la deducción, la inducción, la lógica. En su lugar, nos guiábamos por la intuición, la superstición o el pensamiento mágico. Desde el punto de vista de la evolución de nuestro cerebro, apenas estamos estrenando el pensamiento racional, y todavía no acabamos de acostumbrarnos; aún somos niños creyendo en hadas, duendes y unicornios.

Así, la gente en general no piensa como los científicos, me decían otros. No es cuestión de mayor o menor inteligencia, ni es cuestión de mejor o peor educación. De hecho, muchas personas educadas tratan de disfrazar sus sesgos cognitivos (y todos los tenemos) bajo una falsa apariencia de escepticismo racional, cuando lo que hacen en realidad es lo que uno de estos expertos llamaba “pensar como un abogado”, o seleccionar cuidadosamente (en inglés lo llaman cherry-picking) algún dato minoritario, irrelevante o intrascendente, pero que juega a su favor. Un ejemplo es este caso tan típico: “yo no soy [racista/xenófobo/machista/homófobo/negacionista del holocausto/antivacunas/etc.], PERO…”.

Estos casos de sesgos cognitivos disfrazados, proseguían los expertos, son los más peligrosos de cara a la sociedad; primero, porque su apariencia de acercamiento neutral y de escepticismo, de no ceñirse a un criterio formado a priori, es más poderosa a la hora de sembrar la duda entre otras personas menos informadas que una postura fanática sin tapujos.

Segundo e importantísimo, porque el disfraz a veces les permite incluso colarse en la propia comunidad científica. Es el caso cuando unos pocos científicos sostienen un criterio contrario al de la mayoría, y son por ello destacados por los no científicos a quienes no les gustan las pruebas mayoritarias: ocurre con cuestiones como el cambio climático o los transgénicos; cuando hay alguna voz discrepante en la comunidad científica, en muy rarísimas ocasiones, si es que hay alguna, se trata de un genio capaz de ver lo que nadie más ha logrado ver. Es mucho más probable que se trate de un sesgo disfrazado, el del mal científico que no trata de refutar su propia hipótesis, como debe hacerse, sino de demostrarla. Pero hay un caso aún peor, y es el del científico corrupto guiado por motivaciones económicas; este fue el caso de Andrew Wakefield, el que inventó el inexistente vínculo entre vacunas y autismo.

He venido hoy a hablarles de todo esto a propósito del asunto antivacunas que comenté ayer, porque algunas de estas cuestiones y muchas otras más están genialmente tratadas en este vídeo que les traigo. John Oliver es un cómico, actor y showman inglés que presenta el programa Last Week Tonight en la HBO de EEUU. Habitualmente Oliver suele ocuparse de temas políticos, pero de vez en cuando entra en harina científica. Y sin tener una formación específica en ciencia, es un paladín del pensamiento racional y de la prueba, demostrando una lucidez enorme y bastante rara entre las celebrities. Y por si fuera poco, maneja con maestría esas cualidades que solemos atribuir al humor británico.

Por desgracia, el vídeo solo está disponible en inglés, así que deberán conocer el idioma para seguirlo, pero los subtítulos automáticos de YouTube les ayudarán si no tienen el oído muy entrenado. Háganme caso y disfrútenlo: explica maravillosamente la presunta polémica de las vacunas, tiene mucho contenido científico de interés, y además van a reírse.

Ciencia semanal: comer sin gluten puede ser perjudicial para los no celíacos

Una ronda de las noticias científicas más destacadas de la semana.

Gluten-free, solo para celíacos

Hace tan poco tiempo que aún podemos recordarlo, a los celíacos y otros afectados por trastornos metabólicos les costaba encontrar alimentos adaptados a sus necesidades, o al menos encontrarlos a precios asequibles. Por suerte esto fue cambiando, con la intervención destacada de algunos distribuidores. Hoy muchas tiendas y restaurantes ofrecen opciones para celíacos y detallan la idoneidad de sus productos para otros perfiles de trastornos y alergias.

Imagen de @joefoodie / Flickr / CC.

Imagen de @joefoodie / Flickr / CC.

Pero entonces comenzó a producirse un extraño fenómeno, cuando personas perfectamente sanas empezaron a adoptar la costumbre de evitar el gluten en su dieta en la errónea creencia de que es más sano. Y como no podía ser de otra manera, ciertas marcas aprovechan el tirón para fomentar tramposamente esta idea de forma más o menos velada. Mientras, los nutricionistas científicos se tiran de los pelos tratando de desmontar este mito absurdo y sin fundamento.

Estudios anteriores ya han mostrado que el consumo de alimentos libres de gluten no aporta absolutamente ningún beneficio a los no celíacos. Pero ahora estamos avanzando un paso más con la simple aplicación a este caso de un principio general evidente, y es que la restricción de nutrientes en la dieta cuando no hay necesidad de ello solo puede conducir a una dieta deficitaria.

Un estudio con más de 100.000 pacientes a lo largo de 26 años, elaborado en las facultades de medicina de Columbia y Harvard (EEUU) y publicado esta semana en la revista British Medical Journal, confirma que el consumo de gluten en las personas sin celiaquía no aumenta el riesgo de enfermedad coronaria (como sí hace en los celíacos), pero aporta algo más: la reducción del gluten en la dieta disminuye el consumo de grano entero (integral), que se asocia a beneficios en la salud cardiovascular, por lo que la dieta sin gluten puede aumentar el riesgo coronario en los no celíacos.

Los autores son conscientes de las limitaciones de todo estudio epidemiológico, aunque el suyo es muy amplio y excepcionalmente prolongado en el tiempo. Pero como conclusión, advierten: “no debe fomentarse la promoción de dietas libres de gluten entre personas sin enfermedad celíaca”.

Cassini, en el meollo de Saturno

Continuamos siguiendo la odisea de la sonda Cassini de la NASA en sus últimos meses de vida, mientras orbita entre Saturno y sus anillos antes de la zambullida que la llevará a su fin el próximo septiembre. La NASA ha publicado esta semana un vídeo elaborado con las imágenes de la atmósfera de Saturno tomadas por la sonda durante una hora de su recorrido alrededor del planeta gigante. Los científicos de la misión se han encontrado con la sorpresa de que la brecha entre Saturno y sus anillos está prácticamente limpia de polvo, al contrario de lo que esperaban.

Ataque al centro de mando del cáncer

Lo que han conseguido estos investigadores de la Universidad de Pittsburgh (EEUU) no es una de esas noticias que acaparan titulares, pero es un hito sobresaliente en la aplicación de una nueva tecnología de edición genómica (corrección de genes por un método de corta-pega) llamada CRISPR-Cas9, de la que se esperan grandes beneficios en las próximas décadas.

Los autores del estudio, publicado en Nature Biotechnology, han logrado por primera vez emplear esta herramienta para neutralizar un tipo de genes del cáncer llamados genes de fusión. Estos se forman cuando dos genes previamente separados se unen por un error genético, dando como resultado un gen de fusión que promueve el crecimiento canceroso de la célula. Los investigadores trasplantaron a ratones células cancerosas humanas que contienen un gen de fusión llamado MAN2A1-FER, responsable de cánceres de próstata, hígado, pulmón y ovarios. Luego introdujeron en los ratones un virus modificado artificialmente que contiene CRISPR, específicamente diseñado para cortar el gen de fusión y reemplazarlo por otro que induce la muerte de la célula.

El resultado fue que todos los ratones sobrevivieron durante el período total del estudio, sin metástasis y con una reducción considerable de sus tumores, mientras que todos los animales de control, a los que se les suministró un virus parecido pero ineficaz contra su gen de fusión, sucumbieron al cáncer.

Una ventaja adicional es que la técnica puede ir adaptándose a la aparición de nuevas mutaciones en las células cancerosas. Según el director del estudio, Jian-Hua Luo, es un ataque al “centro de mando” del cáncer. Y aunque aún queda un largo camino por delante hasta que el método sea clínicamente utilizable, sin duda es una brillante promesa en la lucha contra esta enfermedad.

Decir tacos nos hace más fuertes

Uno de esos estudios que no van a cambiar el curso de la historia, pero que tal vez confirma lo que algunos ya sospechaban; y que sobre todo dará un argumento científico a quienes sientan la necesidad de vomitar tacos, insultos e improperios durante un gran esfuerzo físico (desde deportistas a madres pariendo sin epidural), pero que tal vez se cohíban por aquello de guardar las formas: háganlo sin miedo. Si alguien se lo reprocha, cítenles los resultados presentados por el doctor Richard Stephens, de la Universidad de Keele (Reino Unido), en la Conferencia Anual de la Sociedad Británica de Psicología: gritar palabras malsonantes nos hace más fuertes.

Los investigadores compararon el rendimiento de un grupo de deportistas en pruebas de esfuerzo, sin y con tacos, descubriendo que en el segundo caso las marcas mejoraban. Curiosamente, y aunque la hipótesis de los autores era que este efecto se produciría a través del sistema nervioso simpático, como ocurre con la mayor tolerancia al dolor en estos casos, no encontraron signos que confirmaran esta asociación. “Así que aún no conocemos por qué decir tacos tiene estos efectos en la fuerza y la tolerancia al dolor”, dice Stephens. “Todavía tenemos que comprender el poder de las palabrotas”.

Esta máquina puede funcionar durante 80 años sin apagarse jamás

¿Cuánto les duró su último teléfono móvil? ¿Su último ordenador? ¿Impresora, televisor, coche…? ¿Imaginan una máquina capaz de funcionar de forma continua sin un segundo de descanso durante más de 80 años, sin repuestos, con un mantenimiento sencillo y sin visitas al servicio técnico?

Imagen de Beth Scupham / Flickr / CC.

Imagen de Beth Scupham / Flickr / CC.

Cualquiera que alguna vez se haya sentido víctima de esa rápida obsolescencia –sea realmente programada o no– que sufren casi todas las máquinas presentes en nuestra vida debería balbucir de estupefacción ante la maravilla que guardamos en la jaula de huesos del pecho. Tal vez no suelan pensar en ello, pero su corazón no ha dejado de contraerse y expandirse a un ritmo preciso ni un solo momento en todos los años que han vivido.

Sí, es cierto que en una persona sana el resto de sus órganos también trabajan durante décadas. Pero a diferencia de otros, como el hígado o el riñón, el corazón es una máquina electromecánica, con partes móviles. Y todos los demás órganos dependen de este movimiento: si el corazón se detiene, aunque sea por un ratito, se acabó todo lo demás.

Hace unos tres meses, un análisis publicado en Nature sostenía que hay un límite máximo para la longevidad humana, y que ya lo hemos alcanzado: unos 115 años. Cuidado, no confundir longevidad con esperanza de vida. Esta última se refiere a la posibilidad de evitar la muerte por enfermedad u otro motivo mientras nuestro cuerpo aún podría seguir funcionando.

La longevidad planteada por los autores, de la Facultad de Medicina Albert Einstein de Nueva York, se refiere a la (posible) existencia de un límite biológico intrínseco que no puede romperse. Un cuerpo humano no puede vivir 150 años, del mismo modo que un nuevo récord de los 100 metros lisos arañará alguna centésima a la marca previa, pero un cuerpo humano no puede correr esa distancia en dos segundos (odio las metáforas deportivas, pero viene muy al pelo).

La longevidad máxima propuesta por los autores es un techo que no puede romperse simplemente progresando en la lucha contra la enfermedad y en los estándares de salud. Aunque ellos no lo ponían de este modo, en cierto modo seríamos víctimas de una obsolescencia programada, en nuestro caso genéticamente programada.

El artículo fue controvertido, ya que otros expertos en envejecimiento no están de acuerdo; al contrario que los autores, piensan que es demasiado pronto para fijarnos una fecha de caducidad, y que los avances científicos en este campo pueden ser hoy insospechados. Algunos de los críticos incluso afirmaban que el artículo no alcanzaba la categoría necesaria para haber sido aceptado por la revista Nature.

En el extremo opuesto al de los autores de este artículo se encuentran personajes como Aubrey de Grey, el gerontólogo británico que vive de afirmar que el ser humano alcanzará los mil años, y que el primer milenario del futuro ya está hoy caminando sobre la Tierra.

Ya he expresado antes mi opinión sobre las proclamas de De Grey, así que no voy a insistir en lo mismo, sino solo recordar un hecho inopinable: las Estrategias para la Senescencia Mínima por Ingeniería (SENS, en inglés), como De Grey denomina a su proyecto, aún no han logrado alargar la vida de ningún ser humano o animal. La propuesta de De Grey es actualmente tan indemostrable como irrefutable, lo que la deja en un limbo que muchos identificarían con la seudociencia. De Grey es un científico que no se gana la vida con lo que hace, sino con lo que dice que va a hacer.

La ciencia ficción nos deja imaginar cómo cualquiera de nuestras piezas defectuosas podría reemplazarse por una nueva gracias a la medicina regenerativa, hasta hacernos dudar de cuándo dejamos de ser nosotros mismos. Es la vieja paradoja del barco de Teseo (¿cuándo el barco de Teseo deja de ser el barco de Teseo a medida que se le van reemplazando piezas?), que la ficción ha explorado una y otra vez: en El mago de Oz, el Hombre de Hojalata era originalmente un humano que vio todo su cuerpo sustituido por piezas de metal… y que encontraba a su novia casada con el hombre construido con las partes del cuerpo que él perdió.

Claro que pasar de la ficción a la realidad puede ser no solo difícilmente viable, sino también espantoso; cada cierto tiempo resurge en los medios la historia del neurocirujano italiano que pretende llevar a cabo el primer trasplante de cabeza (o de cuerpo, según se mire), una propuesta increíble que nos recuerda otro hecho increíble, pero cierto: hay empresas de crionización que ofrecen a sus clientes la posibilidad de congelarse… solo la cabeza.

¿A dónde nos lleva todo esto? Tal vez a lo siguiente: antes de tratar de prolongar la vida más allá de lo que actualmente se nos presenta como un límite de longevidad, sea este límite quebrantable o no… ¿no sería más deseable alcanzar el ideal de que la esperanza de vida fuera una esperanza real para todos? Un cuerpo humano de 100 años de edad está esperando a ver cuál de sus órganos vitales es el primero en fallar. En lugar de suspirar por el hombre bicentenario, ¿y si pudiéramos evitar el fallo de un órgano vital cuando todos los demás aún están en perfecto funcionamiento?

Un ejemplo: de los millones de personas que cada año mueren por enfermedad cardiovascular, muchas de ellas sufren parada cardíaca. Otras sufren infartos de miocardio o cerebrales. Pero los infartos, provocados por un bloqueo arterial, pueden conducir también a un paro cardíaco, al cese de esa máquina aparentemente incesante. Estas muertes serían evitables si se pudiera mantener artificialmente el bombeo del corazón, pero lo normal es que la posibilidad de reiniciar esa máquina llegue demasiado tarde, cuando ya el daño en el resto del sistema es irreparable.

Un estudio publicado esta semana en la revista Science Translational Medicine describe una nueva tecnología que está muy cerca de evitar estas muertes. Investigadores de EEUU, Irlanda, Reino Unido y Alemania han creado una especie de funda robótica que envuelve el corazón y lo hace bombear artificialmente, sin perforarlo de ninguna manera ni entrar en contacto con la sangre, a diferencia de otros sistemas ya existentes. La funda está compuesta por músculos artificiales de silicona que se accionan por un sistema de aire comprimido, imitando el latido normal del corazón. Los investigadores lo han probado con corazones de cerdo y en animales vivos, con gran éxito.

Hoy los científicos tratan de reparar con células madre los daños en el corazón provocados por los infartos, lo que puede dar nueva vida al órgano de las personas que han sufrido daños en el músculo cardíaco. Incluso se apunta al objetivo final, aún lejano, de fabricar un corazón completo con células madre. Pero cuando un corazón se detiene, nada de esto sirve de mucho. Donde existe un órgano intacto, aunque incapaz de cumplir su función por sí mismo, una prótesis de bioingeniería como la del nuevo estudio podría permitir que una persona por lo demás sana pueda vivir muchos años más de lo que su corazón le permitiría.

Ya hay otros avances previos en esta misma línea. Naturalmente, desde el laboratorio hasta el hospital hay un larguísimo camino que no admite atajos. Pero este camino es genuinamente el de la ciencia de la prolongación de la vida: lograr que cumplir los 80 no sea un sueño inalcanzable para una gran parte de la humanidad. Lo de llegar a los 150, qué tal si lo dejamos para después. Y en cuanto a los mil años, hoy ni siquiera podemos saber si es ciencia ficción o solo fantasía, pero me vienen a la memoria las palabras de un personaje novelesco llevado al cine que vio pasar los siglos por delante de sus ojos:

To die,

To be really dead,

That must be glorious!

(Conde Drácula / Bela Lugosi)

Los alergenos ayudan a los bebés a evitar las alergias

Creo que fue Jesús Hermida el primero a quien le oí definir a un periodista como un especialista en ideas generales. Un amigo y gran periodista lo expresó de otra manera; cuando alguien le dijo en una ocasión “es que los periodistas no tenéis ni puta idea de nada”, él respondió: “ni falta que nos hace”. Se puede saber mucho de algo o poco de todo, pero saber mucho de todo es algo de pocos, y desde luego no es la misión de un periodista.

Cuando además en uno conviven dos personas, el especialista en ideas generales de ciencia y el experto que por definición es un doctor, las cosas se complican aún más: no siempre se entiende bien que un biólogo escriba sobre física o un físico sobre biología, pero lo que en realidad no se está entendiendo es que quien escribe no es el físico ni el biólogo, sino el periodista.

Sin embargo, de vez en cuando surge la oportunidad de desempolvar el doctor que uno lleva dentro. Y en lo que se refiere a un servidor, aunque esa sabanita de papel con la firma fotocopiada del anterior rey diga que se concede a su portador el título de doctor en bioquímica y biología molecular, el campo al que más dediqué esos años de estudio e investigación es la inmunología.

La inmunología es un área de la biología con mucho espacio para estimulantes exploraciones teóricas. Mírenlo de esta manera: el sistema inmune, esa especie de difuso órgano de órganos que permea todo nuestro organismo, dispone de un repertorio tal que es capaz de responder con una defensa (anticuerpos y otros receptores) específicamente ajustada a la forma de cualquier posible molécula invasora (antígeno), acoplándose a ella como un guante.

Incluso si algún día llegáramos a entrar en contacto con un microorganismo alienígena del que jamás habíamos tenido noticia, nuestro sistema inmunitario sería capaz de crear anticuerpos que se unieran específicamente a él. Y esto vale tanto para un elefante como para una musaraña enana, a pesar de que el primero tiene un volumen más de 300.000 veces mayor que la segunda (haciendo un rápido cálculo de servilleta de bar) y por tanto unas 300.000 veces más células. Pero ambos, elefante y musaraña enana, tienen un repertorio completo y aparentemente infinito de anticuerpos.

¿Cómo es posible? La resolución de algunos de estos misterios, como el mecanismo de piezas genéticas móviles responsable de ese inacabable repertorio, ha merecido algún premio Nobel. Pero el sistema inmune aún esconde muchas incógnitas no siempre sencillas de despejar, porque algunas hipótesis no son fáciles de corroborar o refutar con ensayos controlados.

Un ejemplo es la llamada hipótesis de la higiene, según la cual mantener a los bebés en un ambiente excesivamente aséptico les impide el contacto necesario con antígenos de su entorno para que su sistema inmune aprenda a reaccionar contra lo peligroso y a no hacerlo contra lo inofensivo. La idea es que la obsesión por la esterilidad en el entorno del bebé (productos antibacterianos, biberones esterilizados antes de cada toma, agua embotellada, tirar el chupete que se ha caído al suelo…) resulta en una mayor probabilidad de que el niño padezca alergias, asma y enfermedades autoinmunes.

La hipótesis tiene sus variantes, ya que no es lo mismo discutir qué grado de limpieza es el adecuado que hablar del papel de las infecciones en la maduración del sistema inmune. Pero en una forma u otra, la hipótesis de la higiene ha sido largamente discutida, dado que es difícil llegar a un veredicto irrefutable más allá de los datos epidemiológicos, los experimentos con modelos animales y ciertas intervenciones clínicas. Y como suelo decir aquí, una correlación no basta para deducir una relación. Por todo ello, algunos expertos cuestionan la hipótesis, en todo o en parte.

Pero hay algo que sí parece claro: la hipótesis tiene sentido biológico. El principio básico del sistema inmune es que aprende por experiencia (un ejemplo son las vacunas), así que no tiene nada de raro suponer que la privación de estímulos obstaculice ese aprendizaje, del mismo modo que un niño aislado sensorialmente tendría dificultades en su maduración cognitiva.

También tiene sentido desde el punto de vista evolutivo, ya que nuestro sistema inmune ha evolucionado en un mundo sucio que lo desafía desde la cuna, y este desafío es necesario para que aparezca la respuesta; se resume en el refrán: lo que no nos mata, nos hace más fuertes. Y sin que esto baste para dar la hipótesis por válida, sí desplaza la carga de la prueba hacia quienes defienden lo contrario.

En un sentido más amplio, la (tal vez mal llamada) hipótesis de la higiene puede aplicarse también a la exposición a antígenos de otra clase, los alimentarios. Lo cierto es que, como ya conté aquí, los datos confirman un aumento en las alergias alimentarias en las últimas décadas. Y aunque no se puede asumir una causa a la ligera, la tendencia actual reconoce que privar a los bebés de alimentos alergénicos tal vez esté contribuyendo a crear adultos alérgicos.

Cacahuetes. Imagen de Wikipedia.

Cacahuetes. Imagen de Wikipedia.

Un caso típico es el del cacahuete, un alimento clásico en las alergias. Durante años los especialistas recomendaban a los padres que evitaran este fruto seco en la dieta de los bebés. Pero un creciente volumen de estudios ha ido mostrando que tal vez la ausencia de contacto con el antígeno impide desarrollar tolerancia hacia él; o incluso que la exposición a ciertas concentraciones de proteína de cacahuete en el aire puede inducir una alergia que podría prevenirse por el desarrollo de tolerancia a través de la dieta (esto se conoce como hipótesis de exposición dual).

En vista de las investigaciones de los últimos años, en 2015 la Academia de Pediatría de EEUU comenzó a recomendar la introducción de cacahuetes en la dieta a partir de los cuatro meses para los bebés con alto riesgo de padecer alergias alimentarias (por ejemplo, hijos de alérgicos o que ya padecen alguna), siempre con la aprobación del pediatra.

La última noticia es que a esta recomendación se ha unido ahora el Instituto Nacional de la Salud de EEUU (NIH), que en sus nuevas directrices recomienda también introducir los cacahuetes en la dieta del bebé a partir de los cuatro meses. Por supuesto, siempre bajo consejo del pediatra.

Es de esperar que en los próximos años este tipo de recomendaciones se extiendan aún más a otros alimentos. En algunos países, como Australia, las directrices actuales de alimentación infantil establecen específicamente la introducción de alimentos alergénicos como la manteca de cacahuete, el huevo, los lácteos y el trigo antes de cumplir el primer año.

Y en lo que se refiere a la higiene, está claro que entre la limpieza y la esterilidad hay una gran diferencia. Según los estudios, en general los microbios que pueden encontrarse en cualquier hogar con una limpieza regular no son peligrosos; de hecho, la mayoría de ellos son nuestros, y muchos lo son para bien. Pero es comprensible que los mensajes publicitarios lleguen a confundir a muchos padres y madres, ya que también hay toda una industria de la esterilidad para bebés. Simplemente hay que recordar que lo razonable es lo razonable; lo que está limpio para nosotros, también lo está para ellos.

Cuidado con el radón, el monstruo que vive en el sótano

Como en los cuentos de Lovecraft, la amenaza llega desde el submundo. Si usted vive en la franja occidental de la Península que desciende desde Galicia hasta el Sistema Central, esto le interesa. Sepa que tal vez se encuentre en una zona de alta exposición al radón, un gas radiactivo que aparece en el ambiente durante la desintegración del uranio-238 atrapado en el suelo y en las rocas, y que está presente de forma natural en pequeñísima proporción en el aire que respiramos.

Con el radón sucede como con los virus: la percepción pública tiende a desplazarse fácilmente del cero al infinito sin término medio. La mayoría de la gente no conoce el problema de este gas, pero a veces ocurre que quienes se enteran de ello pasan de inmediato al extremo del pánico.

Lo cierto es que el radón es un problema de salud pública reconocido por la Organización Mundial de la Salud, que mantiene un proyecto internacional al respecto. Pero como recordaba el pasado 7 de noviembre (Día Europeo del Radón) el experto del Ilustre Colegio Oficial de Geólogos (ICOG) Luis S. Quindós Poncela, que dirige el Grupo Radón en la Cátedra de Física Médica de la Universidad de Cantabria, lo prioritario es presentar el problema a los poderes públicos y a los ciudadanos para facilitar la información primero, y la actuación después.

El problema con el radón no es que estemos potencialmente expuestos a una fuente de radiación externa, como cuando nos hacemos una radiografía, sino que estamos potencialmente expuestos a contaminación radiactiva: cuando respiramos, introducimos el radón en nuestros pulmones, y así llevamos la fuente de radiación con nosotros. Y si bien el propio gas se desintegra en unos propios días, al hacerlo origina otros compuestos también radiactivos que nos someten a una exposición más prolongada. Esta radiación sostenida puede provocar mutaciones en el ADN cuya consecuencia más fatal es el cáncer.

El radón se filtra al aire desde el suelo, por lo que el riesgo es mayor cuanto más permeable es el terreno bajo nuestros pies. Según Quindós Poncela, las arcillas contienen una concentración de uranio apreciable, pero “su elevada impermeabilidad hace que la cantidad de radón que alcanza la superficie sea muy pequeña”. En cambio el granito es más poroso y suele formar paisajes muy rotos, como ocurre en la Sierra de Guadarrama, y es en este tipo de suelos donde “el radón se desplaza más fácilmente y puede alcanzar la superficie del suelo en mayor proporción”, añade el experto.

Vías de entrada del radón en una casa. Imagen de la Universidad de Cantabria.

Vías de entrada del radón en una casa. Imagen de la Universidad de Cantabria.

Dado que el radón surge desde lo profundo, las zonas de mayor riesgo en las viviendas son los sótanos y plantas bajas. Suele decirse que a partir del segundo piso ya no existe riesgo, pero no siempre es así: Quindós Poncela advierte de que el suelo no es la única fuente del gas. Los materiales de construcción, si se han extraído de una zona con presencia de uranio, también pueden desprender radón. Además el gas se disuelve en el agua, lo que añade otro factor de riesgo en viviendas que reciban el suministro de un pozo.

Curiosamente, la eficiencia energética de las viviendas actuales es un factor que juega en contra de la seguridad contra el radón. Según Quindós Poncela, la construcción de casas cada vez más herméticas no favorece la eliminación del gas: “Mientras que una vivienda antigua renueva el aire de su interior unas tres veces por hora, una moderna necesita dos horas para llevar a cabo dicha renovación. Este hecho favorece la presencia y acumulación de radón en el interior de las casas”, dice.

En los años 90 se emprendió una campaña de medición de radón en viviendas en toda España, gracias a la cual hoy tenemos el mapa de riesgo publicado por el Consejo de Seguridad Nuclear y que pego a continuación. Pero para Quindós Poncela, las 9.000 mediciones tomadas todavía son insuficientes. Y no solo hace falta una mayor vigilancia: el ICOG reclama a las autoridades “que se apliquen cuanto antes medidas constructivas frente al radón (diseño de cimentaciones, ventilación pasiva, análisis de materiales de construcción, etc.), incluyéndolas en el Código Técnico de la Edificación, y mejorando además la definición de las zonas de riesgo en nuestro país”.

Mapa de riesgo del radón en España. Imagen del Consejo de Seguridad Nuclear.

Mapa de riesgo del radón en España. Imagen del Consejo de Seguridad Nuclear.

En cuanto a las zonas de riesgo, un caso particular estudiado por el Grupo Radón de Quindós Poncela es el de Torrelodones, el pueblo de la sierra madrileña donde vivo, y donde el granito aflora del suelo en cada recodo del paisaje.

Las medidas tomadas en Torrelodones muestran una amplia variación de los niveles de radón, pero en casi todos los casos se mantienen bastante por debajo de los 200 becquerelios por metro cúbico (Bq/m³). En este rango, los expertos recomiendan simplemente “incrementar la ventilación natural de la vivienda para conseguir concentraciones tan bajas como sea posible”.

Solo en una ubicación la medida llega a los 266 Bq/m³, y es en la zona de Colonia Varela; si lo conocen, a la espalda del centro comercial Espacio Torrelodones. Pero incluso en este lugar no hay motivo para la alarma: por debajo de 400 Bq/m³ no se considera necesario aplicar medidas de remedio, sino solo aumentar la ventilación, especialmente en sótanos y plantas a ras de suelo.

Es de esperar que la insistencia de los expertos y la divulgación del problema del radón facilite una mayor vigilancia y una ampliación de las mediciones. Pero si viven en una zona propensa a este riesgo y quieren quedarse más tranquilos, ustedes mismos pueden medir el nivel de radón en su casa: la web del Grupo Radón ofrece un kit, con dos detectores y sus instrucciones, por 80 euros más IVA y gastos de envío.

EEUU pone coto a la homeopatía obligándola a reconocer su inutilidad

Tengo la convicción de que la mayoría de quienes consumen homeopatía lo hacen por desconocimiento. Entiéndase: todos lo hacen por desconocimiento, ya que están consumiendo un simple placebo al que atribuyen propiedades curativas más allá del efecto placebo. Lo que quiero decir es que, intuyo, quienes realmente conocen y aclaman los absurdos principios de la homeopatía son una minoría; el resto creen estar consumiendo algo diferente de lo que realmente están tomando, y muchos de ellos se quedan de piedra cuando conocen la verdad.

Un producto homeopático. Imagen de Wikipedia.

Un producto homeopático. Imagen de Wikipedia.

Extraigo esta conclusión de la pequeña muestra de mi entorno. Si preguntan a algún consumidor de homeopatía que les explique en qué consisten esos productos y cuáles son sus ventajas, probablemente su respuesta se basará en estas dos ideas:

  • La homeopatía es una medicina tradicional, cuya eficacia viene avalada por miles de años de sabiduría popular colectiva.
  • La homeopatía es una medicina natural que emplea hierbas en lugar de productos químicos.

Cuando se quedan de piedra es cuando se les hace saber que ninguna de estas dos ideas se corresponde con la realidad:

  • La homeopatía NO es una medicina tradicional. La inventó un señor concreto con nombre y apellidos, el alemán Samuel Hahnemann, en un año concreto, 1796, cuando aún no se conocían las causas de muchas enfermedades ni se disponía de tratamiento para ellas.
  • La homeopatía NO es el uso de plantas medicinales. Beber una infusión de tila para calmar los nervios NO es homeopatía. Tomar vahos de menta para la congestión NO es homeopatía.

(Nota: la medicina, la de verdad, hunde sus raíces más profundas en el uso ancestral de productos naturales con fines terapéuticos. La farmacología moderna nace cuando la ciencia hace posible aislar los principios activos de estos remedios, identificarlos, recrearlos, sintetizarlos y mejorarlos. Medicamentos como la quinina o la aspirina no cayeron de otro planeta ni se inventaron en las probetas de un científico loco, sino que se descubrieron y se extrajeron de las plantas en primer lugar.)

¿Qué es entonces la homeopatía? Hahnemann creía que las enfermedades estaban causadas por unas entidades misteriosas llamadas miasmas, un término que todavía se empleaba en tiempos de mis abuelos. Las miasmas explicaban para Hahnemann el origen de enfermedades muy variadas cuyas causas concretas aún no se conocían, ya fuera sífilis, cáncer, cataratas o epilepsia. Para tratar estas diversas dolencias, Hahnemann formuló los dos alucinatorios principios fundacionales de la homeopatía:

  • Lo similar cura lo similar: una sustancia que provoca una enfermedad en personas sanas cura esa misma dolencia en los enfermos. Hahnemann llegó a esta disparatada conclusión cuando padeció fiebre tras comer la corteza de la quina, propuesta como remedio contra la malaria.
  • Dilución límite: dado que las dosis altas de las sustancias podían agravar los síntomas, decidió diluirlas sucesivamente en agua con la idea (contraria a la evidencia y al sentido común) de que, a menos dosis, más eficacia. La homeopatía utiliza diluciones tan elevadas de las sustancias de partida que matemáticamente no queda ni una sola molécula de ellas en el agua.

En resumen: los preparados homeopáticos líquidos son solo agua. Cuando se presentan en forma de pastillas, se añade azúcar para que tengan un sustrato sólido. La idea de que los productos homeopáticos son naturales tiene en el fondo una verdad irónica, ya que no hay nada más natural que el agua. Las sustancias de partida son preferentemente (no siempre) de origen natural, ya que en tiempos de Hahnemann no las había de otra clase. Poco importa, ya que en cualquier caso no están presentes en el preparado final que es simplemente agua milagrosa, pero más cara que la de Lourdes.

Todo lo cual, por cierto, me lleva a una reflexión. Algunas organizaciones escépticas han escenificado los llamados suicidios homeopáticos, ingestiones masivas de estos productos para demostrar que carecen de ningún principio activo. Pero si se me permite la ironía, tal vez debería hacerse lo contrario: si la homeopatía afirma que a menor dosis, mayor efecto, los suicidios deberían llevarse a cabo tomando los preparados aún mucho más diluidos de como vienen de fábrica, y en cantidades infinitésimas; idealmente, como en aquel Dry Martini de Buñuel, dejar que un rayo de sol atraviese el frasquito antes de impactar en la boca debería ser mortal de necesidad.

Algo que nunca he podido comprender es bajo qué justificación las farmacias venden estos productos. Algún amigo farmacéutico me ha confirmado que la (o al menos su) carrera de Farmacia no incluye ninguna enseñanza sobre homeopatía. Pero si algún farmacéutico licenciado tratara de excusarse en este vacío formativo para no descalificar la validez de esta seudociencia, el pretexto no sirve: la ciencia que sí aprendió durante su carrera es suficiente para certificar la absoluta inutilidad de los preparados homeopáticos.

Especialmente, esto me choca con la función que los farmacéuticos defienden para sí mismos como asesores expertos en materia terapéutica. Siempre que a alguien se le ocurre levantar la mano para preguntar por qué aquí las gasolineras y los supermercados no pueden despachar medicamentos sin receta, como ocurre por ejemplo en EEUU, los cuerpos y fuerzas del sector farmacia saltan de inmediato con la cantinela de la asesoría experta. ¿Asesoría experta, alguien que vende agua milagrosa?

Dicen algunas malas lenguas que el margen comercial de estos productos es superior al de los medicamentos, y que las grandes multinacionales de la homeopatía se ocupan de mimar a los farmacéuticos con atenciones –llamémoslas– extracurriculares. Ignoro si será cierto. Por mi parte, y dado que no es fácil encontrar farmacias que no dispensen homeopatía, al menos evito aquellas que la publicitan en sus rótulos, e invito a cualquier consumidor concienciado con el fraude comercial y sanitario a que haga lo mismo.

Por todo ello, la lucha contra el gran negocio fraudulento de la homeopatía está en la información al consumidor. Por mi parte, he conseguido que algún despistado con esa idea errónea de la “medicina tradicional natural” renuncie para siempre a la homeopatía. Es obvio que a los practicantes de esta seudociencia y a las compañías que fabrican sus productos no les interesa nada la divulgación de los fundamentos reales de sus negocios.

Y en cuestión de información, la Comisión Federal de Comercio de EEUU (FTC) acaba de dar un paso ejemplar. En un nuevo dictamen, el organismo regulador estadounidense obligará a los productos homeopáticos a que justifiquen sus proclamas del mismo modo que los medicamentos. Estos están siempre sometidos a rigurosos ensayos que demuestran su eficacia; sin embargo, hasta ahora los preparados homeopáticos podían venderse en EEUU con todas las indicaciones que a su fabricante le apeteciera inventarse sin ninguna obligación de justificar su utilidad, bajo el amparo de una regulación de 1988 de la Administración de Fármacos y Alimentos (FDA) que así lo permitía.

Esto se acabó: la FTC recuerda que sus estatutos prohíben la publicidad de falsas proclamas en la información comercial sobre productos y que por tanto deben aportarse justificaciones razonables. Sin embargo, el organismo reconoce que durante décadas se ha producido una dejación de estas exigencias que debe corregirse.

“La homeopatía, que data de finales del siglo XVIII, se basa en la idea de que los síntomas de enfermedad pueden tratarse con dosis diminutas de sustancias que producen síntomas similares cuando se suministran en dosis mayores a personas sanas”, dice la FTC. “Muchos productos homeopáticos se diluyen en tal grado que no contienen niveles detectables de la sustancia inicial. En general, las proclamas de los productos homeopáticos no se basan en métodos científicos modernos y no son aceptadas por los expertos médicos modernos, pero no obstante la homeopatía tiene muchos seguidores”.

La FTC no obligará a los productos homeopáticos a nada más ni nada menos que lo obligado para los medicamentos: justificar que funcionan; y si no pueden, confesarlo en sus envases y prospectos. “La promoción de un producto homeopático para una indicación que no esté fundamentada en pruebas científicas creíbles y competentes puede no ser un engaño si tal promoción comunica de forma efectiva a los consumidores que (1) no hay pruebas científicas de que el producto funcione y (2) las proclamas del producto se basan solo en teorías de homeopatía del siglo XVIII que no son aceptadas por la mayoría de los expertos médicos modernos”.

Resulta curioso que tenga que ser la FTC y no la FDA quien ponga coto a la homeopatía, pero se trata de un asunto siempre delicado, lleno de resquicios legales por los que esta seudociencia suele colarse aprovechando la completa inocuidad de sus productos y acogiéndose a las políticas que protegen la libertad de información comercial. La FTC precisa que su dictamen es compatible con la regulación de la FDA y con la Primera Enmienda de la Constitución de EEUU, que garantiza la libertad de expresión. Esperemos que los efectos de esta nueva normativa se noten pronto, y que cunda el ejemplo en otros países.