Archivo de julio, 2019

Así es el sistema de guiado de los mosquitos hacia nosotros (y por qué a unos pican más que a otros)

Que levante la mano quien pueda acabar el verano sin una sola picadura de mosquito en su piel. Pero sí, es cierto que no a todos nos pican por igual. En todo grupo humano siempre parece haber quienes son para los mosquitos como la máquina de vending de la oficina.

Antiguamente, y quizá todavía, se decía eso de que hay personas con la sangre más dulce, lo cual es otro más de los mitos del verano, como el corte de digestión. Todo el que se pare un momento a pensarlo se dará cuenta inmediatamente del absurdo: incluso suponiendo que la sangre fuera dulce, que no, y que los mosquitos fueran golosos, que tampoco –en realidad buscan en nuestra sangre las proteínas y el hierro que necesitan para el crecimiento de sus huevos, ya que solo las hembras pican–, ¿cómo iba a saber el mosquito el grado de dulzor de la sangre de una persona sin picarla antes?

Nuestras diferencias personales en el atractivo que ejercemos para los mosquitos se basan, lógicamente, en pistas que pueden percibir antes de picar: señales olfativas, sustancias químicas que produce nuestro cuerpo y que los guían hasta nosotros. Pero no es solo nuestro olor lo que los atrae, ni tampoco se trata de que unas personas suden más que otras. En realidad, los insectos más molestos del verano –y, dicho sea de paso, también los animales que más muertes causan en el mundo– utilizan un complejo y sofisticado sistema de guiado perfeccionado a lo largo de millones de años de evolución.

Un mosquito picando. Imagen de CDC.

Un mosquito picando. Imagen de CDC.

Así es como funciona. Al respirar, emitimos dióxido de carbono, CO2. Esta es la señal primaria que alerta a los mosquitos de que una posible presa se encuentra cerca. Tan eficientes son detectando este gas que pueden percibirlo a 50 metros de distancia. Imaginemos lo que esto supone: aunque normalmente pensemos que solo los mosquitos que vemos posados en el techo son los que nos tienen en su punto de mira, en realidad el gas de nuestra respiración está atrayendo a todos los chupasangres presentes en 50 metros a la redonda. Y no hay nada que podamos hacer para evitarlo… si es que queremos seguir respirando.

A continuación, el mosquito comienza a volar hacia la fuente que está emitiendo ese CO2. Lo cual a veces no es tan sencillo como podría parecer: dado que el gas es transportado por las corrientes de aire, el mosquito tiene que volar en contra del viento, lo que hace moviéndose en zigzag, de forma algo parecida a como hacen los veleros para navegar a contraviento.

Pero mientras tanto, ha ocurrido algo asombroso: el olor del dióxido de carbono ha disparado una señal en el cerebro del mosquito (más complejo de lo que creen quienes lo utilizan como insulto) que activa las neuronas encargadas de controlar la visión. Así, en el momento en que el mosquito huele el CO2, pasa a modo visual: ahora será su visión la que comience a buscar formas que puedan relacionarse con la figura de una presa.

A unos 10 metros de distancia, el mosquito ya puede vernos, pero aún no nos ha identificado como un objetivo. En realidad, su visión es rudimentaria; no pensemos que tiene la capacidad de distinguir a un humano de una barra horizontal en movimiento (un modelo utilizado por algunos investigadores). Por el momento, aún somos solo uno más de los objetos que entran en su campo de visión; todavía no ha localizado la pista de aterrizaje.

Entonces comienza un proceso de eliminación que se basa en señales térmicas, como los sistemas de guiado de los misiles. El mosquito sobrevuela los objetos de su entorno en busca de calor. Nosotros lo desprendemos; nuestro sofá, no. A unos 20 centímetros de distancia, ya puede detectar esta señal térmica y distinguirnos del sofá. Ya está más cerca de su merienda.

En ese momento, el mosquito se olvida por completo del CO2. Al fin y al cabo, no le interesa dirigirse a nuestra boca o nuestra nariz, que son nuestras chimeneas, sino a un lugar accesible de nuestra piel. Y para ello, vuelve a pasar por última vez a modo olfativo: a unos tres centímetros de distancia de nuestra piel es cuando se produce ese “target locked” de los aviones en las películas. Cuando el mosquito integra en su panel de control la señal térmica con la humedad que produce nuestro cuerpo y con el olor de otros compuestos que desprendemos, como ácido láctico, amoniaco, ciertos ácidos orgánicos, acetona y sulcatona… ya no tenemos escapatoria: somos su cena.

Tan asombroso es el sistema de guiado de los mosquitos que incluso puede funcionar prescindiendo de algunas de estas señales. Por ejemplo, incluso aunque pudiéramos dejar de respirar y detener nuestra emisión de CO2, el insecto hace batidas por las formas que detectan sus ojos en busca de señales térmicas, y estas pueden ser suficientes para localizar a su presa.

Todo lo anterior lo hemos ido conociendo en los últimos años gracias a las investigaciones de científicos como Jeffrey Riffell, de la Universidad de Washington, y Michael Dickinson, del Instituto Tecnológico de California. Los experimentos de estos investigadores son para dejar a cualquiera con la boca abierta.

Por ejemplo, la activación del sistema visual del mosquito por las señales olfativas es el resultado de un estudio publicado este mes en la revista Current Biology, y para el cual los científicos han utilizado el siguiente sistema (mostrado en la imagen): un pequeño recinto, tamaño insecto, rodeado por una pantalla circular de LED en la que se proyectan estímulos visuales a un mosquito que permanece en el centro atado con un alambre de tungsteno, mientras un sensor óptico debajo de él registra los movimientos de sus alas, y un tubo le suministra las señales olfativas necesarias. Para observar cómo se activan las regiones cerebrales encargadas del olfato y la visión, los investigadores utilizan mosquitos transgénicos cuyas neuronas se iluminan en color verde fluorescente cuando están en funcionamiento.

Sistema empleado por los investigadores para estudiar el comportamiento de los mosquitos. Imagen de Kiley Riffell/U. Washington.

Sistema empleado por los investigadores para estudiar el comportamiento de los mosquitos. Imagen de Kiley Riffell/U. Washington.

Pero volvamos a lo quizá se estén preguntando: ¿Por qué a mí? ¿Por qué yo soy esa máquina de vending en la oficina de los mosquitos?

Los investigadores coinciden en señalar que es la fuerza de esas combinaciones de señales la que atrae más a los mosquitos hacia unas personas que hacia otras, sin que probablemente exista un único factor determinante. Un dato curioso es que los mosquitos parecen picar más por igual a los gemelos idénticos que a los mellizos, lo que sugiere la intervención de factores genéticos que probablemente influyan en el olor corporal. Otra pista interesante es que el mayor o menor atractivo de una persona para los mosquitos depende de la microbiota de su piel, es decir, de los microbios que viven sobre nosotros, que a su vez también son responsables del olor corporal. Así que, en definitiva, todo lleva a lo mismo: se reduce a nuestro olor corporal. Para los mosquitos, algunos olemos más apetitosos que otros.

Para terminar, no está de más recordar algo que ya debería ser suficientemente conocido, pero tal vez no: lo único que evita las picaduras de los mosquitos son las barreras físicas y los repelentes químicos (sobre todo el DEET). Los repelentes electrónicos por ultrasonidos no sirven absolutamente para nada, e incluso pueden ser perjudiciales para quienes los utilizan.

España, entre los países más “feos y malos” de la contaminación lumínica

España es uno de los países con mayor contaminación lumínica del mundo. Cerca de la mitad del territorio español está expuesta a los mayores niveles de esta forma de polución, lo que nos coloca en sexto lugar de los países del G20, por debajo de Italia, Corea del Sur, Alemania, Francia y Reino Unido. Si consideramos la proporción de población que vive en estas zonas excesivamente iluminadas, ocupamos el quinto puesto del G20 con más de un 40%, por detrás de Arabia Saudí, Corea del Sur, Argentina y Canadá. En el total del mundo, bajamos al puesto 18º.

Al mismo tiempo, y dado que el nuestro es un país relativamente despoblado en comparación con otros de nuestro entorno, y con enormes diferencias de densidad de población entre regiones, tenemos también algunos de los cielos más oscuros en ciertas zonas de Castilla-La Mancha y Teruel, algo en lo que solo nos igualan Suecia, Noruega, Escocia y Austria. Es más, un enclave concreto de nuestra geografía, el Roque de los Muchachos, la segunda cumbre más alta de Canarias, en la isla de La Palma, exhibe con orgullo el cielo más oscuro de Europa occidental. Y no por casualidad, es un lugar privilegiado para la observación astronómica.

Todos estos son datos ya conocidos, en concreto desde 2016, cuando el investigador Fabio Falchi, del Instituto de Ciencia y Tecnología de la Contaminación Lumínica de Italia, dirigió a un equipo de investigadores de Italia, Estados Unidos, Alemania e Israel para publicar en la revista Science Advances un completo atlas mundial del brillo del cielo nocturno.

Pero ¿por qué preocupa la contaminación lumínica? Es un error pensar que el problema es puramente estético, más allá del estorbo que ocasiona a los astrónomos. Aquellos muy obsesionados con todo lo que produce cáncer deberían saber que la luz también está entre esos factores. No solo la solar, que por supuesto: el astro que nos da la vida y sus versiones artificiales a pequeña escala, las cabinas de bronceado, ocupan el top del cáncer de la Organización Mundial de la Salud junto con agentes como el tabaco, el alcohol, la contaminación atmosférica, la píldora anticonceptiva, la carne procesada o ciertos compuestos de la Medicina Tradicional China. Pero en el grupo inmediatamente inferior está la luz artificial nocturna, junto a factores como el herbicida glifosato o la carne roja, entre muchos otros.

El motivo de esta acción nociva de la luz nocturna es que rompe los ritmos circadianos, nuestros ciclos metabólicos de día/noche, por lo que las personas que trabajan en turnos de noche soportan el mayor riesgo, pero también todas aquellas expuestas a un exceso de iluminación nocturna. Si añadimos a ello que la contaminación lumínica daña los ecosistemas naturales, y que según algún estudio además obstaculiza la limpieza natural de la contaminación atmosférica que se produce en las ciudades por las noches, queda claro que se trata de algo mucho más serio que el placer de tumbarse a ver las estrellas.

La novedad ahora es que tenemos nuevos datos más precisos, gracias a un nuevo estudio de Falchi y sus colaboradores, publicado en la revista Journal of Environmental Management. En su anterior atlas, los autores dibujaban el panorama general de la contaminación lumínica en el mundo, pero era evidente que las regiones con el problema más agudizado serían las más pobladas, desarrolladas e industrializadas, sobre todo las grandes ciudades. Es decir, que los datos crudos no se ponían en el contexto del nivel de desarrollo de las distintas zonas del mundo y de su cantidad de población, con lo cual no había una medida de la eficiencia en la gestión de la iluminación nocturna.

Esto es precisamente lo que aborda el nuevo estudio. Los investigadores han relacionado ahora los datos de contaminación lumínica para las distintas regiones administrativas –en el caso de España, provincias, islas individuales o ciudades autónomas– con el nivel de bienestar económico y el tamaño de la población, con el fin de saber si esas distintas áreas geográficas son más o menos virtuosas en su gestión de la iluminación.

Y aquí tampoco salimos bien parados. Es más, se revela la desastrosa gestión de la iluminación nocturna en nuestro país y en otros del sur de Europa en comparación con naciones más desarrolladas como Alemania y Reino Unido. Basta echar un vistazo al siguiente mapa, que muestra las unidades de luz por habitante. Los azules y verdes representan un flujo menor de luz per cápita, mientras que amarillo, naranja, rojo y morado señalan las regiones que derrochan más luz por persona.

Mapa de flujo de luz nocturna per cápita en Europa. Imagen de Falchi et al, Journal of Environmental Management 2019.

Mapa de flujo de luz nocturna per cápita en Europa. Imagen de Falchi et al, Journal of Environmental Management 2019.

Al primer vistazo queda claro que el sur de Europa, y especialmente España y Portugal (Escandinavia es un caso aparte a comentar más abajo), es la región que más luz malgasta por habitante en comparación sobre todo con las islas británicas y Europa central y oriental, que hacen un uso mucho más comedido de la iluminación nocturna de acuerdo al tamaño de su población. En concreto, Alemania ocupa el primer puesto global en el uso racional de la iluminación nocturna.

Según me cuenta Falchi, “nosotros, los de los países del sur, usamos más luz que la misma cantidad de gente en Europa central. No creo que la diferencia se deba a las luminarias más o menos apantalladas”; es decir, que el director del estudio no atribuye la diferencia a que aquí usemos farolas menos dirigidas hacia el suelo, sino simplemente a que derrochamos más luz.

Llama la atención el morado extendido por Escandinavia e Islandia, pero según Falchi esto es un artefacto debido simplemente a que la nieve refleja más luz hacia el cielo y a que las auroras son poco luminosas, lo que también revela en mayor grado la iluminación nocturna. Lo mismo ocurre en Alaska, en el caso de EEUU.

Con todos estos datos, los autores han creado una clasificación de “el bueno, el feo y el malo”, como en la película de Sergio Leone. Y en lo que se refiere a la iluminación con relación al nivel de desarrollo y la población, estamos una vez más en la parte fea y mala. En el top 25 de “el bueno” tenemos únicamente un lugar: una vez más, la isla de La Palma, que ocupa el sexto puesto de Europa en esta escala de gestión eficiente. Por lo demás, el top 25 europeo está copado por Alemania (17 regiones), seguida por Suiza (3) y por Dinamarca, Lituania, Austria y Rumanía, que como nosotros aportan cada uno una zona.

En contraste, en la clasificación de “el feo y el malo” aportamos cuatro provincias entre las 50 peores de Europa: Cádiz (5º puesto, de mejor a peor), Murcia (14º), Alicante (25º) y Melilla (32º). Esta ciudad autónoma es, por tanto, la que más luz derrocha en nuestro país con relación a su nivel de desarrollo y el tamaño de su población, mientras que en la España peninsular el premio al malgasto de luz se lo lleva la provincia de Alicante.

En cuanto a los países europeos con más regiones derrochadoras, la clasificación la encabeza Portugal, con 13 entre las 50 peores, seguido de Italia con 9, Finlandia con 7, Países Bajos con 6, España con 4, 3 en Reino Unido y Bélgica, 2 en Noruega y una en Croacia, Islandia y Francia (si bien en el caso de los países nórdicos se aplica lo dicho antes; por ejemplo, Islandia cuenta como una sola región, pero este dato se considera falseado).

Los autores del estudio llaman la atención sobre la necesidad de aplicar regulaciones más estrictas para el uso de la iluminación nocturna, especialmente en aquellas regiones que más lo necesitan, como es el caso de nuestro país. Sin embargo, advierten también contra una confusión frecuente: mayor eficiencia energética no siempre significa menor contaminación lumínica.

De hecho, las luces LED blancas, que en muchos lugares han sustituido a las bombillas incandescentes y a las tradicionales farolas amarillas de sodio por su mayor eficiencia energética, no aminoran la contaminación lumínica, sino que, al contrario, la agravan, ya que emiten más luz azul, la más contaminante. No ocurre lo mismo con las luces LED de color ámbar, una solución más respetuosa con ese patrimonio natural que a veces apreciamos tan poco, la oscuridad.

Rusia calló en 2017 una fuga radiactiva que afectó a casi toda Europa

Quienes vivimos la caída del muro de Berlín el 9 de noviembre de 1989 y el posterior desplome del bloque soviético sabíamos entonces que estábamos viviendo la Historia en directo. Medio mundo cambiaba en solo unos meses, y la geografía se reescribía (imagino que, por lo menos, en aquel entonces pocos se quejarían de las actualizaciones de los libros de texto). Pero ¿han sido tantos los cambios?

Recuerdo que por entonces había serias esperanzas de que el mundo entrara en una nueva época de menor tensión. Y sin embargo, los mayores atentados terroristas de la historia aún estaban por estar llegar. Y las guerras continuaron como siempre han sido. Al menos, los ciudadanos del antiguo bloque tras el Telón de Acero son hoy mucho más libres de lo que lo eran entonces, y los rusos pudieron venir a comprarse media costa española. Pero las alianzas tradicionales y las enemistades tradicionales no han variado.

Como tampoco Rusia se ha convertido en un país más transparente que antes de la descomposición de la URSS. Si mucho de lo que allí ocurre llega a nuestros ojos y oídos, continúa siendo, como antes, por quienes destapan los secretos. Y en ocasiones, como hoy, gracias a la ciencia.

El 2 de octubre de 2017, un lunes, una estación de seguimiento atmosférico en Milán (Italia) detectó en el aire un nivel inusual del isótopo radiactivo rutenio-106. El mismo día, la observación se repitió en estaciones de la República Checa, Austria y Noruega, a las que luego se unieron Polonia, Suiza, Suecia y Grecia. Los niveles detectados no eran peligrosos para la salud humana, pero la observación del mismo fenómeno en laboratorios tan distantes entre sí dejaba claro que se trataba de una contaminación a gran escala propagándose por gran parte de Europa.

Cinco días después, la Agencia Internacional de la Energía Atómica abrió una investigación, solicitando a las 43 naciones europeas que detallaran posibles fuentes de aquella contaminación atmosférica radiactiva. Tuvo que transcurrir un mes y medio para que, el 21 de noviembre, las autoridades rusas reconocieran que a finales de septiembre se había registrado una medición de rutenio-106 en la región del sur de los Urales. Sin embargo, los responsables de una posible fuente en aquella zona, el complejo nuclear Mayak en Ozersk, se apresuraron a negar toda relación con el incidente.

Una señal de advertencia de contaminación radiactiva en la zona de Mayak, en Rusia. Imagen de Ecodefense, Heinrich Boell Stiftung Russia, Alla Slapovskaya, Alisa Nikulina / Wikipedia.

Una señal de advertencia de contaminación radiactiva en la zona de Mayak, en Rusia. Imagen de Ecodefense, Heinrich Boell Stiftung Russia, Alla Slapovskaya, Alisa Nikulina / Wikipedia.

Por su parte, los datos facilitados por los países europeos no ayudaron a clarificar el fenómeno. Mientras, Rusia seguía declinando toda responsabilidad y atribuyendo la contaminación a la posible desintegración en la atmósfera de un satélite con baterías de radioisótopos.

Desde entonces, el episodio ha traído de cabeza a las autoridades de seguridad nuclear; hasta ahora, cuando por fin tenemos la respuesta: un estudio elaborado por cerca de 70 expertos de distintas instituciones de Europa y Canadá –con la participación del CIEMAT de España–, dirigido por la Universidad Leibniz de Hannover (Alemania) y publicado en la revista PNAS, ha reunido todos los datos de seguimiento de la nube radiactiva y los ha introducido en un modelo de los movimientos atmosféricos durante los días previos a la detección.

La reconstrucción del crimen apunta al culpable más probable: el complejo ruso Mayak. Según los investigadores, los patrones de distribución vertical del isótopo descartan la hipótesis del satélite o una posible incineración de material radiactivo de uso médico, y en cambio todas las pistas son consistentes con una fuga en Mayak que pronto se extendió hacia el oeste formando una nube del tamaño de Rumanía.

Es más, los científicos han logrado incluso determinar cómo se produjo el escape. Estudiando las características del contaminante y los procesos que lo generan, han llegado a la conclusión de que probablemente ocurrió durante el reprocesamiento de un combustible nuclear gastado dos años antes para producir cerio-144 destinado a un experimento de detección de neutrinos en el laboratorio italiano de Gran Sasso.

Esta hipótesis ya fue propuesta en febrero de 2018 por científicos del Instituto Francés de Radioprotección y Seguridad Nuclear. Entonces, los investigadores franceses sugirieron que los datos apuntaban a Mayak como el origen de la contaminación. Esta compañía, que cuenta con una planta de reprocesamiento de combustible nuclear, había firmado un contrato con el Gran Sasso para la producción del altamente radiactivo cerio-144 requerido para el experimento. Mayak era la única instalación capaz de producir el material que necesitaban los físicos italianos.

Parte de las instalaciones del complejo nuclear de Mayak, en Rusia. Imagen de Carl Anderson, US Army Corps of Engineers / Wikipedia.

Parte de las instalaciones del complejo nuclear de Mayak, en Rusia. Imagen de Carl Anderson, US Army Corps of Engineers / Wikipedia.

Sin embargo, en diciembre de 2017 Mayak comunicó al Gran Sasso que no podía cumplir con el encargo, pero sin decir ni una palabra de que el proceso había fallado y se había producido una fuga. A la teoría de los físicos franceses, el director del Instituto de Seguridad Nuclear de la Academia Rusa de Ciencias respondió diciendo que era una buena hipótesis, pero incorrecta.

Ya entonces, y aunque había constancia de que los efectos de la nube radiactiva eran inocuos para la población europea –la contaminación no llegó a España–, se sugirió que no podía afirmarse lo mismo respecto a los habitantes de los núcleos próximos a Mayak; una instalación que, por cierto, en 1957 fue la sede del desastre de Kyshtym, el tercer accidente nuclear más grave de la historia después de los de Fukushima y Chernóbil, que afectó a un área con una población de 270.000 personas. Aquello fue en tiempos de la Guerra Fría. Pero parece que algunas cosas nunca cambian en Rusia.

El día en que Neil Armstrong estuvo a un segundo de morir

El 20 de julio de 1969, Neil Armstrong tuvo que poner en valor sus 20 años de experiencia como piloto para completar el aterrizaje más complicado de su carrera, el primero que no era tal, sino un alunizaje. Al comprobar que el módulo lunar (LEM) Eagle se dirigía a una zona de la superficie que no era practicable, tomó el control de los mandos y corrigió el rumbo para orientarlo hacia un lugar más propicio.

Cuando por fin cortó la propulsión para tomar tierra, a la nave le quedaba combustible para menos de un minuto. Fueron momentos de terror para el centro de control de la misión en Houston. Pero no para los dos astronautas a bordo de aquella jaula con paredes de papel metálico. Realmente aquella gente estaba hecha de una pasta especial, lo que Tom Wolfe llamó “the right stuff”. Porque, en aquellos momentos, muy probablemente Armstrong recordó una situación similar, un año antes, en la que se quedó a un segundo de morir.

Neil Armstrong en el módulo lunar, el 20 de julio de 1969. Imagen de NASA / Edwin E. Aldrin, Jr. / Wikipedia.

Neil Armstrong en el módulo lunar, el 20 de julio de 1969. Imagen de NASA / Edwin E. Aldrin, Jr. / Wikipedia.

En estos días de celebración del medio siglo del primer alunizaje –habría otros cinco más hasta 1972–, a uno, que de costumbre se dedica a escribir sobre cosas como estas, le resulta difícil elegir qué contar hoy. Puede parecer paradójico, pero el caso es que a nadie le gusta repetirse a sí mismo, y en realidad cualquier cosa que un servidor pueda contar hoy ya la ha contado antes infinidad de veces. Para quienes hayan podido acercarse hoy a este rincón de internet en busca de algo sobre la Luna y el Apolo 11, y si les apetece, les apunto aquí algunas cosas que ya he escrito previamente y que quizá les interese leer. Si gustan.

En primer lugar, siempre recomiendo leer la historia del Apolo 1, la primera misión del programa lunar que nunca llegó a despegar del suelo. El 27 de enero de 1967, la nave ardió durante una simulación en la plataforma de lanzamiento, matando a sus tres tripulantes, Virgil Ivan Gus Grissom, Edward Higgins White y Roger Bruce Chaffee. Aquella tragedia dejó al descubierto numerosos errores que se encadenaron para propiciar el desastre, y que se corrigieron a partir de entonces. La muerte de Grissom, White y Chaffee logró que sus compañeros en misiones posteriores volaran en condiciones más seguras. De no haber sido por aquello, tal vez la desgracia habría acaecido en el espacio en alguna otra misión, lo que quizá habría herido de muerte a todo el programa Apolo.

Una historia de signo muy distinto fue la del Apolo 13, la tercera que debía posarse en la Luna. Sobra explicar el famoso “Houston, tenemos un problema” –aunque en realidad fue “Houston, hemos tenido un problema”–, pero merece la pena recordar cómo las mentes brillantes de ingenieros y astronautas y el trabajo en equipo lograron salvar de manera casi milagrosa a James Lovell, Fred Haise y Jack Swigert, que parecían condenados a morir tras una explosión en el módulo de servicio que inició una serie de desafortunados contratiempos durante su vuelo hacia la Luna.

Tampoco es un mal día para recordar a los héroes del bando contrario, que también apostaron sus vidas por alcanzar aquel logro de pisar la Luna. Para ambas potencias en liza era una ambición política estratégica, pero para los protagonistas involucrados era además la culminación de un sueño. El 24 de abril de 1967, tres meses después de la tragedia del Apolo 1, Vladimir Komarov pasaba a la historia como la primera víctima mortal de un vuelo espacial. En su nave Soyuz 1 falló prácticamente todo lo que podía fallar, y Komarov pagó con su vida la urgencia por vencer al enemigo. Pese a todo y en contra de ciertos mitos difundidos, afrontó su muerte con valor y entereza. También al otro lado del telón de acero andaban sobrados de the right stuff.

Y en cuanto a lo que está por venir, parece que la ocasión del 50º aniversario ha servido también para revitalizar los proyectos de regresar a la Luna en los próximos años, aunque aún falta el dinero para hacerlo. Pero ahora la idea ya no consiste en una excursión, sino en una presencia permanente apoyada por la irrupción de nuevas compañías privadas y con la que se pretende explotar los recursos lunares. Se ha hablado bastante del helio-3, un isótopo abundante en la Luna que podría suministrar un combustible para producir energía limpia por fusión nuclear, aunque para muchos expertos es una perspectiva poco realista.

Pero volvamos a Armstrong. Estábamos hablando de cómo su accidentado alunizaje probablemente le recordó el día en que se quedó a un segundo de morir. El 6 de mayo de 1968, algo más de un año antes, y como todos los astronautas del programa Apolo, el veterano piloto acudió a la base aérea de Ellington para entrenarse de cara al alunizaje en el Lunar Landing Research Vehicle (LLRV).

No era posible simular el alunizaje en un vehículo idéntico al Eagle, ya que este estaba concebido para la débil gravedad lunar y además sus materiales eran demasiado frágiles para operar en la Tierra. Así que los ingenieros habían construido el LLRV, lo más parecido posible para que los astronautas se entrenaran; una plataforma voladora que se pilotaba de modo similar al Eagle y que era conocida como la cama volante (flying bedstead), porque recordaba al armazón de una cama antigua. Según contaban, manejar aquel aparato era como mantener un plato sobre el palo de una escoba.

Aquel día, algo falló durante el vuelo de Armstrong. Una fuga de combustible hizo que se apagara uno de los propulsores, y la nave se volvió inestable. El astronauta intentó equilibrarla por todos los medios, pero era inútil. No le quedó otro remedio que eyectar su asiento, lo que hizo aproximadamente un segundo antes de que el aparato se estrellara contra el suelo y estallara en llamas. Este vídeo recoge el momento:

Armstrong se mordió la lengua al impactar contra el suelo. Fue el único daño físico de su momento al borde de la muerte. En cuanto a sus daños emocionales y psicológicos, como se cuenta en el vídeo, un rato después su compañero Alan Bean charlaba con él sin estar enterado del incidente, y a Armstrong ni siquiera le pareció lo suficientemente relevante como para mencionarlo. Cuando después Bean supo de ello, regresó a Armstrong y le preguntó si aquello era cierto. A lo que este respondió: “oh, sí”. The right stuff.

Disruptores endocrinos y bisfenol A, ¿amenaza real o quimiofobia?

Ayer comencé a hablar de los llamados disruptores endocrinos (EDC, en inglés), compuestos a los que se atribuyen innumerables daños a la salud como consecuencia de actuar como falsas hormonas, rompiendo el equilibrio natural del sistema endocrino: diabetes, obesidad, problemas reproductivos, alteraciones del desarrollo fetal, daños neurológicos, trastornos de atención, cáncer…

Los EDC están hoy en la mirilla de científicos, autoridades y de muchos ciudadanos preocupados por el –aparentemente– súbito descubrimiento de compuestos como el bisfenol A (BPA) que de repente se han convertido en los supervillanos más devastadores de la historia. Y que están por todas partes: incluso los más obsesionados con su alimentación, en algún momento de sus vidas han tocado un recibo de la compra o de un cajero automático, sin saber que estaban sujetando en sus manos una auténtica arma de destrucción masiva.

Pero ¿es así?

La respuesta: no. En primer lugar, el BPA no se ha descubierto de repente. No es una contaminación industrial. No es algo que los malvados empresarios introduzcan a hurtadillas en sus productos para engordar sus beneficios. Tampoco es un subproducto que aparezca por sí mismo como consecuencia de alguna extraña reacción química indeseable.

El BPA es un compuesto químico que se inventó a finales del siglo XIX, y al que pronto se le vio una utilidad en la fabricación de plásticos y de otros numerosos productos. Al mismo tiempo, se descubrió que por su estructura era un candidato a medicamento para actuar como análogo hormonal de los estrógenos, las hormonas feminizantes, pero ya en los años 30 se descartó este uso porque era demasiado débil: unas 37.000 (treinta y siete mil) veces menos potente que el estradiol, la hormona natural a la que imita.

Botellas de plástico. Imagen de Needpix.com.

Botellas de plástico. Imagen de Needpix.com.

La primera conclusión es que el BPA no se descubre que está ahí, sino que se ha puesto ahí a propósito. Si uno analiza zumos de naranja del mercado y descubre que no contienen naranjas, es noticia. Si uno analiza productos del mercado fabricados con BPA, descubre que contienen BPA y lo anuncia a bombo y platillo, es… en fin, completen la frase ustedes mismos.

Claro que, podría decirse, en un congreso de personas con polidactilia faltarían dedos para contar los productos que históricamente se han empleado para múltiples usos humanos sin saber que se estaba envenenando a la gente; productos que después han sido prohibidos y retirados. ¿Será este uno de esos casos?

La respuesta: tampoco. Los efectos del BPA se han analizado extensivamente durante décadas, sobre todo en los últimos 20 años (más sobre esto un poco más abajo), con el no disimulado fin de demostrar su toxicidad. Pero por más vueltas que se le ha dado, hasta hoy no se ha podido probar fehacientemente ninguna relación causal clara del BPA con ningún daño a la salud en humanos.

Pero a ver: ¿existe una dosis a la cual el BPA pueda ser perjudicial para la salud?

Papel térmico. Imagen de pixabay.

Papel térmico. Imagen de pixabay.

La respuesta: naturalmente, por supuesto que sí. Como nos enseñan los toxicólogos, no existe absolutamente ninguna sustancia que sea inocua a cualquier dosis, o más beneficiosa cuanto más se aumenta la dosis hasta cualquier dosis imaginable. De ser así, no tomaríamos una cápsula de antibiótico cada ocho horas, sino que nos tragaríamos una maceta llena y adiós al problema. Y nótese que esto no solo se aplica a los fármacos, sino absolutamente a cualquier sustancia: existe incluso la intoxicación por exceso de agua, que puede llevar a la pérdida del equilibrio electrolítico, al fallo cerebral y a la muerte.

Obviamente, estos efectos de dosis de toxicidad para el BPA se han estudiado en animales, junto con la posible aparición de enfermedades asociadas, y en función de ello los organismos reguladores han establecido sus directrices. La autoridad química europea clasifica el BPA como sustancia preocupante, porque lo es; de lo contrario, no tendría sentido tanta investigación, y es más que pertinente, necesario, continuar con estos estudios para garantizar que no se haya escapado algo importante.

Pero con toda la ciencia actual en la mano y yendo al terreno práctico, esto es lo que hoy establecen las autoridades reguladoras respecto a la exposición al BPA. Así dice la Agencia Europea de Seguridad Alimentaria (EFSA):

El BPA no supone un riesgo de salud para los consumidores porque la actual exposición a la sustancia es demasiado baja para causar daño. La opinión científica de la EFSA muestra que los niveles de BPA a los que están expuestos los consumidores de todas las edades está muy por debajo del nivel estimado de exposición segura, conocido como ingesta diaria tolerable (TDI). La EFSA encuentra que no existe una preocupación de salud, ya que las estimaciones más altas de exposición al BPA, tanto a través de la dieta como en total, son de 3 a 5 veces menores que la TDI, dependiendo del grupo de edad. Para todos los grupos de población, la exposición en la dieta es más de 5 veces menor que la TDI.

Y esto dice la agencia de fármacos y alimentos de EEUU (FDA):

¿Es seguro el BPA?

Sí. Según la continua revisión de seguridad de la FDA de las pruebas científicas, la información disponible continúa avalando la seguridad del BPA para los usos actualmente aprobados en envases de comida. Las personas están expuestas a bajos niveles de BPA porque, como muchos componentes de los envases, cantidades muy pequeñas de BPA pueden migrar desde el envase de la comida a las comidas o bebidas. Estudios emprendidos por el Centro de Investigación Toxicológica de la FDA no han mostrado efectos por exposición al BPA a bajas dosis.

Pero entonces, y si todo esto es así, ¿por qué últimamente todo el que lea o escuche las noticias puede llevarse a casa la impresión de que estamos en continuo riesgo de exposición a una toxina peligrosa de la cual, al parecer, las autoridades no hacen absolutamente nada para protegernos?

(Nota: he elegido la palabra “toxina” a propósito porque probablemente muchos la utilizarían. Y mal utilizada. Una toxina es una sustancia nociva producida POR LAS CÉLULAS DE LOS ORGANISMOS VIVOS. Las toxinas las producimos nosotros mismos. Si las ingerimos con la comida no es porque unos malvados científicos hayan vertido sus tubos de ensayo en el cubo donde se fabrica la sopa, sino porque las han producido las propias células de los organismos vivos, animales o vegetales, que nos comemos. En resumen, UNA TOXINA NO ES UNA SUSTANCIA QUÍMICA SINTÉTICA, SINO UNA SUSTANCIA QUÍMICA NATURAL. Y por cierto, el cuerpo no las acumula, sino que sabe eliminarlas él solito; para eso la evolución inventó el hígado y los riñones).

Bueno, esto habría que preguntárselo a quienes publican y difunden tales noticias. Y por supuesto, a quienes las generan en primer lugar. Si las autoridades establecen claras directrices sobre la seguridad de la exposición a una determinada sustancia, y un científico no está de acuerdo, puede y debe impugnar esta decisión ante dichas autoridades; de hecho, algunos han procedido así, lo cual ha motivado una nueva y extensa revisión de la EFSA cuyos resultados esperamos conocer pronto. Pero en cambio, lo que ese científico no debería hacer, aunque pueda, es alarmar a la población haciendo algo que en inglés tiene un nombre muy pegadizo, scaremongering, y que en nuestro idioma se llama de una manera mucho más tonta: meter miedo.

No debería hacerlo, lo cual no quiere decir que un servidor le acuse de estar haciéndolo. Como tampoco se me ocurriría jamás acusar a nadie de hacerlo porque esa carnaza se venda fácilmente a los medios y cale mucho entre el público, consiguiendo un alto nivel de visibilidad para los científicos en cuestión.

Como tampoco se me ocurriría jamás añadir que todo esto además funciona mucho mejor si se adereza la carnaza con titulares y otras afirmaciones que no se corresponden ni con los resultados del estudio en cuestión ni con el dictamen actual de las autoridades reguladoras, ni con el significado de estos estándares; por ejemplo, cuando en una nota de prensa se dice que “nueve de cada diez pares de calcetines de bebé del mercado contienen trazas de bisfenol A”, cuando en realidad ese “mercado” se limita a un total de 32 pares de calcetines comprados en tres tiendas, de los cuales solo se han encontrado niveles de BPA superiores al límite de la UE para los juguetes infantiles (no hay un límite para los calcetines, como es lógico) en los calcetines comprados en el bazar chino, y cuando los propios autores reconocen en su estudio que incluso en estos casos la dosis estimada de exposición dérmica al BPA por estos calcetines “es relativamente baja” (lo cual no se menciona en la nota de prensa).

Calcetines de bebé. Imagen de pixabay.

Calcetines de bebé. Imagen de pixabay.

En cambio, aunque no se me ocurriría afirmar nada de lo anterior, sí es necesario añadir que el BPA es una sustancia sobre la cual debe seguir investigándose y, si así lo aconsejan nuevos futuros estudios, restringir aún más sus usos y dosis autorizadas. Como también es necesario repetir que si hasta ahora esto no se ha producido es porque los miles de estudios disponibles no lo han aconsejado. Y sobre todo, es imprescindible añadir que ni siquiera todos los expertos están de acuerdo en que los EDC sean lo dañinos que otros sostienen.

En 2016 un grupo de toxicólogos publicaba una carta en Nature bajo el título “no dañen la legislación con pseudociencias”. “Nos preocupa que algunos de los procesos para establecer las regulaciones de seguridad de las sustancias químicas en la Unión Europea se están dejando influir por los medios y el scaremongering de las pseudociencias”, escribían. “Por ejemplo, se culpa a los disruptores endocrinos de la obesidad y la diabetes de tipo 2 a pesar de que no hay pruebas que lo apoyen, y a pesar de que el excesivo consumo de alimentos y azúcar es una causa probada”, añadían. “Como consecuencia, los criterios de la Comisión Europea para regular los EDC como una amenaza a la salud humana se basan en estudios de correlación, no causales”. Y aún más: “Algunos científicos ponen el objetivo de atraer fondos para investigación por encima de la valoración objetiva de sus pruebas”.

El primer firmante de aquella carta, el toxicólogo Daniel Dietrich, de la Universidad de Constanza (Alemania), escribió también junto a otros autores una larga revisión sobre los EDC. Estas son algunas citas:

A pesar de 20 años de investigación, el daño a la salud por la exposición a bajas concentraciones de sustancias químicas exógenas con actividad débil similar a las hormonas sigue sin demostrarse, y es una hipótesis improbable.

Teniendo en cuenta los enormes recursos invertidos en esta cuestión [más de 4.000 estudios, contabilizan los autores], uno esperaría que entretanto deberían haberse identificado algunos EDC causantes de daños a la salud o enfermedades. Sin embargo, no ha sido el caso. Hasta la fecha, con la excepción de las hormonas naturales o sintéticas, no se ha identificado ni un solo EDC fabricado por el ser humano que represente un riesgo identificable y mensurable para la salud humana.

Ciertamente, ha habido mucho revuelo mediático sobre riesgos imaginarios para la salud del BPA, los parabenos o los ftalatos. Sin embargo, jamás se ha establecido ninguna prueba real de efectos adversos para la salud humana de estas sustancias. Al contrario, cada vez hay más pruebas de que sus riesgos para la salud son inexistentes o despreciables, o imaginarios.

Como es natural, la visión de Dietrich ha recibido fuertes críticas por parte de los defensores de la hipótesis de los EDC y de los efectos nocivos del BPA y otras sustancias. Y sin embargo, los argumentos del alemán son innegables: es cierto que la regulación sobre el BPA se basa en el principio de precaución según los experimentos con animales, dado que no se ha demostrado un vínculo causal con efectos nocivos en la salud humana.

Dietrich y sus colaboradores agregan también otro hecho innegable, y es que el mayor experimento humano de la historia con los EDC tiene un nombre de sobra conocido: píldora anticonceptiva. Por su propia definición, la píldora es un EDC, de acción similar al BPA pero miles de veces más potente; de hecho, el BPA se desechó como xenoestrógeno (análogo sintético de los estrógenos) precisamente porque era demasiado débil. Dietrich le pone cifras: la comida que comemos contiene un nivel de 100 en estrógenos de fuentes naturales como los flavonoides de la soja, y un nivel de 0,02 de estrógenos sintéticos, mientras que una sola píldora anticonceptiva contiene un nivel de 17.000. Y sin embargo, los anticonceptivos orales se toman a millones a diario en todo el mundo.

Píldoras anticonceptivas. Imagen de Lupus in Saxonia / Wikipedia.

Píldoras anticonceptivas. Imagen de Lupus in Saxonia / Wikipedia.

Todo lo cual revela una enorme paradoja. Por ejemplo, el tabaco o el alcohol demostraron claros efectos dañinos desde los primeros estudios, y en todos los estudios realizados. Para estas sustancias se aplican restricciones sobre a quién y dónde se venden, pero puede decirse que se venden y se consumen libremente sin límites de dosis o cantidades; en el caso del alcohol, sin siquiera incluir esas famosas etiquetas de advertencia sobre que “el alcohol mata” o “el alcohol provoca cáncer”. Y por el contrario, a las sustancias para las que más de 4.000 estudios no han logrado demostrar claramente efectos nocivos en humanos se les aplica el principio de precaución, resultando en una regulación más restrictiva que la de los claramente dañinos. ¿Tiene esto algún sentido?

Esto, a su vez, debería llevar a una reflexión: si los investigadores que estudian los niveles de BPA y otros EDC en productos de consumo realmente quisieran dejar claro que su trabajo no es un mero scaremongering que explota y fomenta la quimiofobia, detallarían en sus estudios que los estándares de la UE a los que refieren sus resultados no corresponden a dosis demostradamente dañinas en humanos, sino que se han establecido en niveles exageradamente prudentes según el principio de precaución basándose en los resultados de experimentos con animales.

Pero no lo hacen. ¿Por qué? Ellos sabrán. Me limito a dejar otra cita de Dietrich y sus colaboradores: “Dado este enorme volumen de fondos para la investigación [de los efectos del BPA y otros EDC], los científicos en el campo de los EDC pueden tener intereses creados de mantener la hipótesis de los EDC en la agenda para permanecer en el negocio”.

Finalmente y para los más informados o deseosos de información, merece la pena añadir un último comentario. Gran parte de la discrepancia entre los toxicólogos y los endocrinólogos se basa en que algunos de estos últimos alegan la existencia de un fenómeno llamado hormesis, por el cual se supone que no siempre se obtiene mayor efecto a mayor dosis, sino que para algunas sustancias los efectos pueden ser más potentes a concentraciones menores; lo que, según los defensores de esta hipótesis, implicaría que toda la investigación sobre la toxicidad del BPA se ha hecho mal.

Si este enunciado les recuerda a una famosa pseudoterapia que empieza con la letrita hache, ya intuirán que se trata de una propuesta muy controvertida. Lo cierto es que sí existen determinados procesos biológicos en los que algo de esto podría tener algún sentido… siempre que, naturalmente, la sustancia esté presente, y que cumpla ciertas condiciones; una de ellas, que sea una biomolécula –compuesto producido por el propio organismo– muy activa. Que no es el caso del BPA ni del resto de los EDC sintéticos. Pero eso daría para otra historia.

Quimiofobia, la pseudociencia de no tomar, tan dañina como la de tomar

No se trata de descubrir nada nuevo, sino de insistir en algo que debería difundirse más: pseudociencias dañinas no son solo aquellas que quieren vender como beneficioso algo inútil o nocivo, como la homeopatía, sino también aquellas que quieren tachar como perjudicial algo beneficioso.

Tal vez el ejemplo más peligroso de esto sea el movimiento antivacunas. Hasta tal punto llega hoy la confusión que en una tertulia de radio, de esas sobre política pero donde los tertulianos no dudan en morder cualquier bocado que se les eche a las fauces, uno de esos verborreicos omniscientes decía algo así: la mayoría de los estudios científicos más serios y rigurosos dicen que las vacunas no causan autismo.

Lo cual, aun reconociendo la buena intención del tertuliano, es una barbaridad; una peligrosísima desinformación y deformación de la realidad, ya que da a entender que los hay. Es decir, estudios científicos, aunque sean de los menos serios y rigurosos, que sí muestran una relación entre las vacunas y el autismo. Lo que a su vez dará pie a algunos para pensar que esos estudios descalificados son los buenos, los good guys, los que la malvada Big Pharma intenta soterrar, frente a los otros, los de los codiciosos científicos untados por la industria.

Un manifestante antivacunas en un mitin del movimiento ultraconservador estadounidense Tea Party. Imagen de Fibonacci Blue / Flickr / CC.

Un manifestante antivacunas en un mitin del movimiento ultraconservador estadounidense Tea Party. Imagen de Fibonacci Blue / Flickr / CC.

A ver, no. No los hay. Ni uno solo. Jamás ha existido un estudio científico, ni más riguroso ni menos ni poco serio ni mucho, que haya mostrado ningún tipo de vínculo entre las vacunas y el autismo. Se trata de una idea falsa inventada y publicada en un estudio fraudulento por un médico sin escrúpulos que esperaba lucrarse con ello por una doble vía: el acuerdo de una demanda millonaria con un bufete de abogados, y un plan de negocio también millonario basado en un kit de diagnóstico inventado por él mismo. Aquel estudio fue retractado y aquel médico perdió su licencia. Punto final. Esta es toda la historia. Pero probablemente aquel tertuliano, ignorante de todo esto, logró lo contrario de lo que pretendía: sembrar la duda entre algún que otro oyente.

Esta pseudociencia de vender como malo algo útil o beneficioso entronca de lleno con la quimiofobia, hoy una tendencia tan popular que las marcas de productos de consumo han encontrado un nuevo filón de ventas acogiéndose a una palabra mágica: “sin”. Sin algo. Sin lo que sea. Se trata de retirar a toda costa algún componente de sus productos y de publicitarlo como un beneficio, incluso si esas sustancias son inofensivas o no existen pruebas concluyentes de ningún efecto indeseable.

Pero ¿qué ocurre cuando se retiran esos componentes? ¿Realmente el nuevo producto resultante es mejor o más saludable? ¿O es una mera trampa publicitaria?

Algunos pensarán que, total, quitar algo en ningún caso puede hacer daño. Y que en lo que respecta a los componentes retirados, es preferible acogerse al principio de precaución, el “por si acaso”: mejor retirarlos aunque finalmente sean inocuos, que mantenerlos incluso si finalmente son inocuos.

Solo que, aunque sobre el principio de precaución también hay mucho que discutir (más sobre esto, mañana), en muchos casos no es así. En la práctica, el sufrido consumidor se ve engañado sin saberlo, porque solo se le cuenta “sin qué”, pero no “con qué en su lugar”. Es decir, qué componentes se emplean ahora para reemplazar a los antiguos. Simplemente, se le ha cambiado la bolita para despistarle.

Y puede resultar que esos compuestos sustitutivos sean igual de dudosos que los anteriores, pero no tan impopulares en ese momento; el criterio no es el perjuicio demostrado de los compuestos, que no existe, sino su mala fama entre los consumidores desinformados. Por ejemplo, los cosméticos sustituyen el aluminio por parabenos, luego los parabenos por mineral de alumbre, y dado que este también contiene aluminio, se sustituye a su vez por otra cosa… cuya identidad no conoceremos hasta que anuncien que la han quitado.

Un ejemplo particular curioso es el aceite de palma. Particular, porque a pesar de no ser ni siquiera sintético –el terror de los quimiófobos–, se ha convertido de repente en una grasa maldita, a la que el consumidor medio le supone gravísimos perjuicios para la salud… que no existen. El aceite de palma no podrá presumir de los beneficios del de oliva, pero tampoco es diferente a cualquiera de sus alternativas; no es una grasa dañina. En realidad, el motivo por el que las marcas lo están retirando de sus productos solo lo conocen los más enterados: no son razones de salud, sino ecológicas. Su cultivo en el sureste asiático está causando una deforestación que amenaza los ecosistemas y la supervivencia de especies como los orangutanes.

Pero curiosamente, también en este caso los sustitutos pueden ser peores. Algunos expertos, incluyendo un informe de la Unión Internacional para la Conservación de la Naturaleza, han alertado de que un boicot al aceite de palma solo logrará que esta cosecha se reemplace por otra, y que las alternativas provocarán aún más deforestación, ya que su rendimiento por unidad de superficie cultivada es mucho más bajo. Los campesinos de Indonesia no tomarán crema de cacao con avellanas, pero también tienen que comer.

Recolección de fruto de aceite de palma. Imagen de pixabay.

Recolección de fruto de aceite de palma. Imagen de pixabay.

El mensaje viene a ser: cuidado con las trampas del marketing. Actuar como ciudadanos informados y responsables consiste en exigir productos con certificación de sostenibilidad, ya sea para el aceite de palma o para cualquier otra cosa. Los expertos suelen advertir de que las certificaciones de sostenibilidad tampoco son la panacea, pero ¿quién cree que la panacea exista? Quizá deberemos conformarnos con la opción menos mala.

Existe un tercer caso especialmente preocupante, y es la moda de “sin conservantes”. Estos aditivos, cuya inocuidad está demostrada por décadas de estudios, se han incorporado a los alimentos durante siglos para evitar que muramos de intoxicaciones alimentarias.

Últimamente se ha hablado de la listeriosis, una infección alimentaria desconocida para muchos. Como ya he contado aquí, científicos de la alimentación están alertando de que la retirada de los conservantes de los alimentos por una simple cuestión de moda puede devolvernos a los tiempos oscuros en los que la gente moría a mansalva por comer alimentos contaminados con microbios peligrosos. El consumidor está acostumbrado a que los alimentos duren; pero si se les quitan los conservantes, ya no duran tanto, y en ciertos casos no se nota a la vista ni al olfato.

También en este caso está ocurriendo algo aberrante denunciado por esos científicos conscientes, y es que para poder anunciar sus productos como “sin conservantes artificiales”, pero evitando el riesgo de que sus consumidores mueran intoxicados y los familiares presenten demandas, muchas marcas están sustituyendo los nitratos producidos industrialmente por el zumo de apio, que también contiene nitratos. El nitrato es exactamente el mismo compuesto químico en los dos casos. Pero con la diferencia de que se sabe exactamente cuánto nitrato purificado debe añadirse para impedir que crezca la bacteria causante del botulismo, y en cambio el zumo de apio lleva una cantidad de nitrato variable según el caso, por lo que los alimentos pueden no quedar suficientemente protegidos.

En esto de la quimiofobia, el premio a la popularidad en los últimos tiempos lo disputan los llamados disruptores endocrinos (abreviados como EDC, en inglés), compuestos que supuestamente causarían daños a la salud interfiriendo con el sistema hormonal del organismo, haciendo el papel de falsas hormonas. A los EDC se les atribuyen toda clase de males: diabetes, obesidad, problemas reproductivos, alteraciones del desarrollo fetal, trastornos de atención en los niños, cáncer… En fin, que solo Atila causaba más devastación.

Entre los supuestos EDC, existe uno en concreto que últimamente aparece bastante en las noticias, llamado bisfenol A (BPA). Y aparece bastante en las noticias porque, deduciría alguien leyendo tales noticias, parece que estamos amenazados por el peligrosísimo BPA en todos los frentes de nuestra vida, desde cuando comemos casi cualquier cosa, sobre todo si viene envasada, hasta cuando hacemos algo tan inocente como coger con la mano un recibo de la compra.

Lo cual lleva a una lógica preocupación: ¿sin saberlo, hemos estado durante años y años peligrosamente expuestos a una sustancia capaz de provocarnos un montón de terribles enfermedades? La respuesta, mañana.

Qué es y qué no es un estudio científico

La revisión por pares es el mecanismo imprescindible que otorga el marchamo de estudio científico. En el origen del progreso de la ciencia moderna está la decisión de la comunidad científica de que todo estudio debe ser evaluado por varios investigadores expertos en la misma materia, seleccionados por el editor de la revista a la cual se ha enviado el estudio, y cuyas identidades normalmente son desconocidas para los autores.

Naturalmente, la revisión por pares debe ser real y rigurosa. Hace unos días, el blog del CSIC en esta casa publicaba un artículo del investigador Mariano Campoy sobre las revistas y entidades depredadoras, un negocio fraudulento que parasita al sistema científico: un fulano (que no suele ser un científico) decide montar una publicación científica digital y espamea a miles de investigadores ofreciéndoles sus páginas, previo pago de sumas anormalmente abultadas para tratarse de revistas desconocidas. El fulano en cuestión promete una revisión por pares, que en realidad no existe. El fulano en cuestión se lucra con ello y algunos investigadores pican, o bien por desconocimiento de que se trata de una revista depredadora, o bien con pleno conocimiento, pero con el –igualmente fraudulento– objetivo de engordar su lista de estudios publicados.

La revisión por pares real, la de las revistas científicas legítimas, es no ya rigurosa, sino implacable y despiadada, a veces llegando a lo cruel. Jamás un estudio científico se acepta a la primera. Como decíamos ayer, una gran parte de los estudios recibidos por una revista ni siquiera llegan a la revisión, ya que el propio editor considera que no alcanzan el nivel mínimo de calidad o relevancia para enviarlos a los expertos. Si el estudio consigue superar este primer filtro, otro desenlace enormemente común es que los revisores o referees recomienden su no publicación. Y vuelta a empezar: a probar suerte con otra revista diferente.

Revistas científicas. Imagen de Selena N. B. H. / Flickr / CC.

Revistas científicas. Imagen de Selena N. B. H. / Flickr / CC.

Una vez salvado este segundo obstáculo, lo habitual es que los revisores pidan infinidad de cambios, no solo en el texto, sino también nuevos experimentos, controles y figuras. Y una vez que los autores han cumplido todas estas exigencias, el estudio irá de nuevo a revisión, pudiendo ocurrir que de todos modos sea finalmente rechazado. Es muy habitual que un estudio deba pasar por varias revistas antes de que consiga finalmente ser aceptado en alguna de ellas, después de cambios extensos y nuevos experimentos que pueden llevar meses o incluso años.

Así, y en contra de lo que suele escucharse en la calle como respuesta frecuente al “lo dice un estudio científico”, no, los científicos no publican lo que les parece. Solo publican lo que la comunidad científica, delegada en los referees, decide tras un arduo y largo proceso que finalmente puede considerarse ciencia.

Otro error habitual, que está en el manual básico de todo conspiranoico, es creer que los estudios científicos tienen intereses ocultos. Desde hace años las revistas obligan a los investigadores a declarar sus conflictos de intereses, y estos aparecen detallados en sus estudios publicados. A un científico que recibe financiación de una compañía de chocolatinas no se le impide publicar un estudio sobre las virtudes del chocolate, siempre que el trabajo sea científicamente sólido y relevante, pero al final de su estudio aparecerá claramente especificado este conflicto de intereses. Y si un científico lo oculta, puede dar su carrera por terminada. ¿Cuántos opinadores profesionales, líderes mediáticos, influencers y demás fauna son transparentes con sus fuentes de financiación y sus conflictos de intereses?

Por último, otra idea equivocada es pensar que los científicos cobran por sus estudios publicados. No cobran, pagan. Las revistas suelen cargar una tarifa a los autores, que en muchos casos se justifica por la publicación del estudio bajo el concepto de material publicitario. Así, los científicos no ven ni un céntimo por ninguna clase de derechos relacionados con sus estudios. Pero estos sí generan ingresos, ya que quien quiera leer los estudios debe pagar. Es más, en muchos casos, si a un investigador le interesa que su estudio sea de lectura gratuita con el fin de aumentar su difusión, la revista sube la tarifa para compensar la pérdida de ingresos de los lectores. La revista se lo lleva todo; la banca gana.

Esta anacrónica injusticia ha dado origen a ciertas corrientes en alza. Una de ellas es el Open Access, el libre acceso total. Las revistas que eligen esta opción no son de publicación gratuita para los autores, pero al menos aseguran a sus estudios una gran difusión por ser de lectura gratuita. Aunque a regañadientes, algunas revistas tradicionales van sumándose poco a poco a esta tendencia.

Otra corriente es la piratería, pero en un escenario totalmente contrario al de los contenidos digitales culturales. Los autores de música, películas o libros no quieren que sus obras se pirateen porque esto les priva del fruto legítimo de su trabajo, la ganancia económica directa por las ventas de sus obras. En el caso de los científicos, su beneficio es indirecto: un investigador progresa en su carrera cuanto más y mejor publica y cuanto más impacto tienen sus trabajos en la comunidad. Por ello, le interesa la máxima difusión de sus estudios, pero tal vez no pueda pagarse un Open Access.

Así, los investigadores son los primeros que desean que sus estudios se pirateen; de hecho, suelen colgarlos ellos mismos en las webs de piratería, y los facilitan gustosamente si uno se los pide por correo electrónico (algo que los periodistas de ciencia hacemos de forma habitual). Mientras tanto, son las editoriales de las revistas quienes tratan de impedir la libre difusión de la ciencia. Por suerte, con no demasiado éxito.

Con todo esto, y a pesar de las limitaciones que decíamos ayer respecto a lo que debe o no debe interpretarse del hecho de que algo “lo dice un estudio científico”, sí debe quedar claro que un estudio científico es una cosa radicalmente diferente a lo que no lo es. ¿Y qué no lo es?

Todo lo demás: un informe publicado por Naciones Unidas, Greenpeace o la Sociedad de Cardiólogos de Cercedilla puede ser todo lo apreciable y valioso que a cada uno le parezca según la confianza que le inspire la entidad en cuestión. Pero no es un estudio científico; no ha sido validado por nadie más que por la propia entidad que lo publica (y quizá, por algún revisor presuntamente independiente que, sin embargo, ha facturado por su independencia). Y por lo tanto, no tiene la credibilidad de un estudio científico, por muy Naciones Unidas que sea (en honor a la verdad, los organismos de Naciones Unidas también publican muchos estudios científicos revisados por pares, algo que en cambio otras entidades no suelen hacer).

Lo mismo se aplica a los estudios publicados por empresas y corporaciones, una tendencia que parece estar en alza fuera del ámbito estrictamente científico; hasta las compañías de condones o las webs inmobiliarias publican ya sus propios estudios. Lo cual puede tener su valor, siempre que no se pierda de vista cuál es realmente ese valor. Que una empresa que vende alimentos para reforzar el sistema inmunitario diga en su publicidad que sus alimentos refuerzan el sistema inmunitario, como lo demuestran sus propios “estudios científicos” no revisados por pares, tiene un valor aproximado de… cero. Que una compañía de cosméticos antiarrugas diga en su publicidad que sus cosméticos son antiarrugas, como lo demuestran sus propios “estudios científicos” no revisados por pares, tiene un valor aproximado de… cero. Y así.

La pretensión de presentar como estudio científico algo que no lo es suele entroncar de lleno con el mundo de la pseudociencia y la mala ciencia. En España, el CSIC no acepta patrocinios (al menos hasta donde sé, salvo que las cosas hayan cambiado en los últimos años), en el sentido de que una compañía no puede alquilar a uno de sus investigadores para que realice un estudio destinado a confirmar los enormes beneficios de su producto. Sin embargo, otras muchas entidades científicas o paracientíficas (y sus científicos o paracientíficos) gustosamente aceptan generosas donaciones para respaldar la venta de colchones (perdón, creo que ahora se llaman “equipos de descanso”), pseudoterapias, suplementos alimenticios o lo que sea que se especifique en el cheque.

El valor de estas proclamas es nulo, pero en cambio no lo son sus efectos: estos falsos “estudios científicos” son enormemente negativos por la confusión que causan respecto a un sistema que desde luego no es ni mucho menos perfecto, pero que, además de ser el mejor que ha podido crearse y de funcionar razonablemente bien, tiene la gran virtud de mejorarse a sí mismo, reconociendo sus errores y rectificando cuando es necesario. Y a ver qué otro sistema puede decir lo mismo.

Así es y se hace un estudio científico

En el mundo del arte circula una frase con muchos padres y madres: arte es lo que yo decido que lo es. Y aunque todo aspirante que pretenda ascender por esa sacrosanta pirámide difícilmente pondrá en duda el juicio de los que se sientan en la cúspide, es evidente que bajo ese presunto argumento solo se esconde una arbitrariedad injustificada. Personalmente, recibí una de mis mejores enseñanzas de periodismo de un antiguo jefe, editor de revistas de viajes: cuando se trata de diseño, “porque a mí me gusta más así” no es una razón válida.

Otro ejemplo: imagino que cuando un filósofo profesional lleva su coche al taller y allí le explican que la “filosofía” de la marca es poner solo recambios originales, al filósofo quizá tengan que practicarle la reanimación cardiopulmonar. Pero, total, también se llama “cultura” a cosas que no lo son: la cultura de la corrupción, la cultura funcionarial…

Entonces, ¿por qué no llamar también “estudio científico” a lo que a cada uno le apetece? “He hecho un estudio científico y he visto que mi vecino siempre viste de verde cuando llueve”. ¿No?

Pero no. Por supuesto que cada uno es perfectamente libre de llamar orégano al orgasmo si le apetece. Pero si hablamos de estudios científicos de verdad, los que permiten esgrimir aquello de “lo dice un estudio científico” que veíamos ayer, aquí no hay la menor arbitrariedad, como no puede haberla en nada relacionado con la ciencia. La comunidad científica ha establecido unas reglas muy claras sobre qué es un estudio científico y qué no lo es. Y básicamente, todos los mandamientos se resumen en uno: un estudio científico es el que se publica en una revista científica con una rigurosa revisión por pares.

Referencias en un estudio científico. Imagen de Mike Thelwall, Stefanie Haustein, Vincent Larivière, Cassidy R. Sugimoto (paper). Finn Årup Nielsen (screenshot) / Wikipedia.

Referencias en un estudio científico. Imagen de Mike Thelwall, Stefanie Haustein, Vincent Larivière, Cassidy R. Sugimoto (paper). Finn Årup Nielsen (screenshot) / Wikipedia.

Pero comencemos por el principio. Un grupo de investigadores concluye una determinada fase de su línea de investigación y reúne suficientes resultados como para extraer una conclusión novedosa. Se ha hecho nueva ciencia. Y ahora, ¿qué?

Lo primero, claro, es escribir el estudio, o paper. Esto suele hacerlo (normalmente) el jefe del grupo. Que no es (normalmente) el autor material del trabajo. Aunque en las películas de Hollywood suele verse a supercientíficos trabajando en el laboratorio, el mundo real no funciona así. A partir de un determinado nivel, todo científico dedica el cien por cien de su tiempo a leer, escribir estudios y solicitudes de becas y proyectos, impartir seminarios, discutir resultados, asistir a congresos, hacer eso que ahora llaman networking… Ahora muchos dedican también parte de su tiempo a la divulgación mediante blogs, libros y otros medios. El trabajo de laboratorio, el de bata (que por cierto, no se lleva más veces de las que sí), corre a cargo de su equipo: becarios predoctorales, postdoctorales, técnicos…

Esto se refleja en las firmas que aparecerán en el estudio. El primer firmante (o los primeros en igualdad de contribución, si así se especifica) es el autor material del trabajo, que suele ser un predoctoral o postdoctoral. Los siguientes son otras personas que han contribuido, en orden decreciente según su aportación. Lo justo y decente es que esto incluya también a los técnicos, pero hay investigadores que no les permiten firmar los estudios por no ser personal científico.

Finalmente, el último nombre de la lista de autores es el del o la investigador(a) senior, el jefe del grupo o de la línea. Si hay más de uno, aparecerán desde el último hacia el penúltimo, antepenúltimo, etc., también según su aportación. El último autor y director del estudio suele figurar también como autor de correspondencia, aquel al que otros científicos deberán dirigirse para discutir sobre su trabajo, aunque es frecuente que este delegue esa función en el primer firmante si le considera suficientemente formado y él lleva varias líneas al mismo tiempo.

A la hora de escribir el estudio en sí, también hay reglas que no pueden romperse. El esquema estándar de todo estudio científico experimental se compone de seis partes: abstract (resumen), introducción (estado de la cuestión y propósito del trabajo), materiales y métodos (explicación detalladísima de todos los experimentos para que cualquier otro investigador pueda repetirlos), resultados, discusión (conclusiones) y referencias bibliográficas (estudios anteriores que se citan o en los que se basa el trabajo). Dado que muchas revistas imponen ligeras variaciones a este esquema básico, desde el principio el investigador suele escribir el estudio ateniéndose al formato requerido por la revista a la cual va a enviarlo. Además, todo estudio experimental incluye varias figuras que muestran los resultados.

El estilo y el tono tampoco dejan margen a la fantasía. Los estudios científicos se escriben en un lenguaje claro, conciso, directo y aséptico, sin retórica ni literatura. Pero al mismo tiempo, deben ser impolutos en su gramática y su ortografía. Y por supuesto, generalmente todo ello en inglés, el idioma de la ciencia. En cuanto a las conclusiones, el tono de los estudios científicos es justo el opuesto al de cualquier artículo de opinión o discurso político, ideológico o religioso. En los estudios científicos no se pontifica ni se dogmatiza, o ni siquiera se “demuestra”, sino que solo se “muestra”. “Nuestros resultados sugieren”, “los datos son compatibles con”, “es razonable pensar” o “podría pensarse” son fórmulas habitualmente utilizadas. A menudo la última conclusión es que deberán realizarse nuevos estudios para confirmar los resultados.

Una vez escrito el estudio, se envía a la revista previamente elegida. De esta elección depende críticamente el destino futuro de ese papelito. Obviamente, todo científico aspira a publicar en Nature o Science, las revistas de mayor prestigio, pero en la mayor parte de los casos picar tan alto sería una pérdida de tiempo, y podría incluso perjudicar al propio investigador si los editores de estas revistas le etiquetan como alguien incapaz de valorar la relevancia real de su trabajo. O simplemente, como un pelmazo.

Se entiende entonces que no todas las revistas son iguales, y esto tampoco es arbitrario. Existen índices que miden el impacto de las revistas y las clasifican en listas jerárquicas. Tampoco el impacto de una revista suele ser el mismo si se trata de una publicación multidisciplinar, como Nature o Science, que leen todos los científicos, o si se ciñe a un ámbito especializado muy concreto. Para un científico, saber elegir la revista adecuada a la que enviar un trabajo es tan importante como hacer el trabajo en sí.

Una vez enviado el estudio, el primer filtro al que se enfrenta es el de los propios editores de la revista. Como puede suponerse, las revistas generalmente reciben muchos más estudios de los que pueden publicar, por lo que se rechazan muchos más de los que se aceptan. Así, es muy habitual que al primer intento, con la revista que el investigador ha elegido como su opción más deseable a la par que razonable, la respuesta sea una carta del editor diciendo que el estudio no reúne la suficiente calidad o relevancia como para que le interese publicarlo. Y entonces, toca probar con la siguiente de la lista.

En un momento determinado, por fin el investigador consigue que un editor se interese por su estudio. Pero el calvario no ha terminado; en realidad no ha hecho sino comenzar: llega entonces la revisión por pares. Mañana seguiremos.

Lo dice un estudio científico. ¿Qué significa esto realmente?

Lo dice un estudio científico. Es una frase que escuchamos a menudo en la calle, aplicado a todo tipo de situaciones. Pero ¿qué significa realmente que un estudio científico diga tal cosa? ¿Significa lo que creen que significa quienes emplean la frase?

Así es como muchos pretenden que funcione: si un estudio científico apoya nuestra postura ideológica preconcebida, lo levantamos como un baluarte con el que pretendemos barnizar de objetividad dicha postura ideológica. En cambio, si los resultados del estudio no nos complacen, es que los científicos publican lo que les parece y, además, están vendidos a los intereses de x, y o z.

Pero no es así como funciona. En primer lugar, un estudio científico solo debe valorarse por su propia calidad, y no por el sentido de sus resultados, gusten o no. Esto no debería sorprender a nadie, pero probablemente lo hará: el propósito de la ciencia es únicamente conocer la realidad, no presentarla más agradable al gusto de nadie. Por ejemplo, puede que no guste saber que la identidad y la orientación sexual vienen sobre todo definidas desde el útero materno (según la ciencia actual, por factores genéticos y bioquímicos intrauterinos), ya que encaja mejor con la mentalidad de hoy pensar que es una cuestión de libertad y elección personal. Pero la ciencia deja de serlo cuando se pliega a las tendencias sociales políticas para convertirse en un instrumento al servicio de ideologías, como ocurrió durante el nazismo, el estalinismo o incluso el franquismo.

En segundo lugar, en muchos casos –sobre todo en ciertas áreas de investigación, y especialmente en aquellas que suelen estar afectadas por posturas ideológicas– un solo estudio científico aislado puede tener una relevancia muy escasa. En realidad, siempre que alguien defienda ante nosotros una postura concreta porque “lo dice un estudio científico”, la réplica correcta es: y los demás estudios, ¿qué dicen?

Imagen de pxhere.

Imagen de pxhere.

Un ejemplo de esto último ha sido la percepción social del cambio climático. Durante años, numerosos medios políticos y periodísticos de tendencia conservadora en todo el mundo se aferraron a la idea de que el cambio climático era una ficción inventada por un lobby anticapitalista para derribar el libre mercado y la economía de las grandes corporaciones. Por supuesto, había estudios científicos que negaban el cambio climático. El hecho de que fueran de calidad deficiente o que incluso quedaran retractados no impedía que pudiera esgrimirse la famosa frase. Solo cuando la avalancha de estudios de calidad presentando pruebas del calentamiento global se hizo ya imposible de ocultar y negar, algunos de estos medios –no todos– terminaron rindiéndose a la evidencia (podríamos también decir que solo lo han hecho cuando el capitalismo y la economía de las grandes corporaciones han incorporado el cambio climático como fuente de negocio, pero sería otra historia).

Otras pseudociencias también se apoyan en este argumento, como es el caso de las pseudoterapias que sostienen intereses económicos. No hay web defensora de la homeopatía que no despliegue una lista de docenas de estudios científicos con los que pretenden avalar sus proclamas. Estas listas suelen estar confeccionadas al montón, sin otro propósito que servir a los ya adeptos o epatar y apabullar a los dubitativos. Pero cualquiera con un cierto conocimiento de la ciencia y sus mecanismos encuentra rápidamente que todo ese presunto aluvión es finalmente un leve chispeo: o los estudios realmente no defienden lo que pretenden quienes los han recopilado, o son de calidad muy deficiente, casos anecdóticos y sin controles. Y sobre todo, por cada uno de esos estudios que dicen encontrar efectos beneficiosos en la homeopatía, hay otros diez, cincuenta o cien que no los han encontrado, pero que no aparecen en la lista.

Respecto a esto último, tampoco hay que hacer cábalas sobre si son más o menos los que defienden una postura o la contraria. Aquí no existe aquello de un millón de manifestantes según los convocantes y un par de autobuses llenos según el gobierno. En la ciencia nada se deja al azar, y también existe un método perfectamente sistematizado para valorar ese “¿y qué dicen los demás estudios?”. Se conoce como metaanálisis, y se rige por un conjunto de reglas precisas.

Los metaanálisis o metaestudios son imprescindibles especialmente cuando se analizan efectos que tal vez sean pequeños, pero que podrían ser reales (es decir, poco potentes, pero que aparecen de forma consistente, estadísticamente significativa). Estas grandes revisiones recopilan todos los estudios existentes sobre una misma cuestión, los examinan uno a uno para evaluar su nivel de calidad, y aquellos que superan un umbral mínimo se someten conjuntamente a un tratamiento estadístico informatizado para disponer de un volumen de datos que preste mayor fiabilidad a las conclusiones, según unos parámetros definidos y aceptados por la comunidad.

Es aquí donde las pseudoterapias se caen del todo: con independencia de que los principios de la homeopatía vayan en contra de todo lo conocido por la ciencia, todos los metaanálisis han concluido que el único efecto observable es el placebo. Incluso si se dejaran de lado las objeciones teóricas, los resultados prácticos confirman que no hay resultados prácticos, y esto es lo que científicamente descarta su validez.

Homeopatía. Imagen de pxhere.

Homeopatía. Imagen de pxhere.

Pero estos casos tampoco se restringen a las pseudoterapias o a otras propuestas que deambulan más allá de los límites de la ciencia real; en muchas ocasiones, más de las que cabría esperar, también se encuentran dentro de lo que se considera ciencia legítima y formal. Uno de los campos en los que esto está ocurriendo hoy de forma más flagrante es el de la nutrición y la vida saludable en general.

Evidentemente, también este es un negocio millonario; no solo por la venta directa de productos, sino también por la industria profesional y mediática que engorda a costa de prestar consejos sobre costumbres, dietas y alimentos sanos. E incluso muchos grupos de investigación de instituciones absolutamente respetables han aprendido que fomentar la psicosis quimiófoba o buscar las siempre presuntas virtudes del último alimento de moda es mucho más rentable, en todos los sentidos, que investigar sobre el cáncer o el alzhéimer.

Esta diferencia entre los estudios aislados y los metaanálisis es la raíz de un fenómeno que a menudo desconcierta a los ciudadanos, y que a algunos les hace incluso desconfiar de la ciencia: cuando hoy resulta ser malo lo que antes era bueno, o viceversa. Ha ocurrido históricamente con el aceite de oliva y el pescado azul, y más recientemente con la ingesta de colesterol en los alimentos.

El problema en estos casos es que se divulgan como definitivos lo que solo son resultados preliminares, pobres o dudosos, muy a menudo basados únicamente en correlaciones de datos sin una causalidad demostrada. A medida que se acumulan más estudios, se profundiza en las relaciones causales, aumenta el volumen de datos y comienzan a aparecer metaanálisis, ocurre a veces que el balance refuta una creencia antes tenida por cierta.

En resumen, frente a cada nueva noticia sobre un estudio científico que ensalza las supuestas virtudes del chocolate o alerta sobre el presunto peligro mortal de tocar los recibos de la compra, la actitud correcta es el escepticismo; no tomarlo por principio como dogma ni tampoco como falacia, y mucho menos aún en función de que sus resultados gusten o no. Para valorar la relevancia de un estudio y saber distinguir el grano de la paja hay que formarse un espíritu crítico, y esto solo se consigue conociendo cómo funciona la ciencia. La verdadera educación científica no consiste en repetir hasta la saciedad que las vacunas funcionan y no causan daño alguno, sino en enseñar a comprender cuáles son los mecanismos que tiene la ciencia para llegar a saber que esto es así.

Pero en todo lo anterior hay un concepto clave que casi se da por sentado, y tampoco es obvio: ¿qué es un estudio científico? ¿Es todo aquel cuyo autor dice que lo es? Mañana veremos que no todo lo que se anuncia como estudio científico realmente lo es.