Dos ideas infundadas sobre la vida en el universo

Hace unos días, un programa de radio abría una encuesta entre sus oyentes: los acusados en el juicio del proceso catalán, ¿han cometido delito de rebelión o de sedición? Se me ocurrió pensar: ¿cómo osaría yo pronunciarme sobre semejante cosa? Para mí tanto podrían haber cometido rebelión o sedición como allanamiento, estupro, brujería, phishing, bullying, mobbing, coworking, spinning, o nada de lo anterior. Pero sí, los oyentes osaban. Y la encuesta no distinguía entre expertos en leyes, que los habría, o en ebanistería húngara medieval.

Y si esto se aplica a algo completamente artificial y construido por el ser humano como son las leyes, ¿cómo no va a aplicarse a algo como la naturaleza, que no hemos hecho nosotros, sino que nos limitamos a intentar comprenderla, y sobre la cual aún ni siquiera podemos estar seguros de si es más lo que sabemos o lo que nos falta por saber? Sin embargo, también en esto hay cuestiones en las que todo el mundo osa.

Un ejemplo: la existencia de vida alienígena.

En concreto, la opinión más extendida dice que la vida tiene que ser algo muy común en todo el universo. Si ha surgido en la Tierra, ¿por qué no en cualquier otro lugar, dado que el nuestro no tiene por qué ser en ningún sentido un planeta excepcional? La vida es algo inevitable, dicen muchos, allí donde puede darse. Y esto, curiosamente, a pesar de que en realidad el argumento no viene avalado por ninguna prueba que conozcamos hasta ahora.

Es más: en la Tierra la vida ha sido inevitable… solo una vez a lo largo de más de 5.000 millones de años. Pero la biología no es una carrera de caballos, donde las apuestas se cierran una vez que se da la salida. Si es tan inevitable, ¿por qué no se ha producido cientos, miles o millones de veces? (Nota: sabemos por diferentes pruebas que todos los seres terrícolas que conocemos proceden de un único antepasado común; es decir, que la vida en la Tierra solo ha surgido una única vez).

Ilustración artística de la superficie del exoplaneta TRAPPIST-1f. Imagen de NASA / JPL-Caltech.

Ilustración artística de la superficie del exoplaneta TRAPPIST-1f. Imagen de NASA / JPL-Caltech.

Pero un momento: ¿no son los propios científicos quienes han defendido reiteradamente esta omnipresencia de la vida? Así que no se trata solo de la opinión de los expertos en ebanistería húngara medieval.

En efecto, es cierto. Tradicionalmente, el interés en la posible existencia de vida alienígena fue un campo impulsado sobre todo por físicos y matemáticos. Dado que aún no conocemos vida alienígena y no pueden existir expertos en algo que no conocemos (y que la astrobiología se inventó mucho más tarde), parecía razonable preguntar a los expertos en conjeturas, como los físicos y los matemáticos. Y si nos atenemos a las conjeturas, parece mucho más probable que el nuestro sea un planeta normal en el que ha surgido la vida normalmente, según dicta el principio de mediocridad: una cosa elegida al azar de entre muchas tiende a un perfil promedio de esas muchas.

Pero hay algo que ha enturbiado el debate: durante décadas ha existido un cierto pudor intelectual en torno a la posible excepcionalidad de la Tierra y de la vida terrestre. Para algunos, reconocerle a la Tierra un carácter extraordinario sería como hacer una concesión al diseño inteligente, mientras que para otros supondría aceptar el principio antrópico, que el universo existe porque nosotros estamos aquí para observarlo.

Sin embargo, si por algo debe distinguirse la ciencia es por no dejarse condicionar por esquemas ideológicos preconcebidos (o ni siquiera intelectuales): si las observaciones revelan que ciertas constantes del universo, que en principio podrían tomar cualquier valor, parecen extrañamente ajustadas a los valores precisos que permiten la existencia del propio universo, de la materia y de la vida, no puede negarse el hecho simplemente porque pueda dar cierta cancha al creacionismo y al diseño inteligente. Si se oyen ruidos en el sótano y no hay nadie allí, negar los ruidos solo porque uno no cree en fantasmas es tan absurdo como atribuirlos a fantasmas antes de haber descartado absolutamente todas las posibles explicaciones no sobrenaturales. En el caso del ajuste fino del universo, lo más obvio es manejar la hipótesis del multiverso: de todos los universos surgidos, solo aquellos en los que esas constantes han tomado por azar ciertos valores concretos son los que prosperan.

Algo similar ocurre con la aparición de la vida: aunque sin duda aún es pronto para hablar de un cambio de tendencia, lo cierto es que cada vez parecen ser más los científicos que comienzan a abandonar el principio de mediocridad para apoyar la hipótesis contraria, que la Tierra es un planeta más excepcional de lo que sospechábamos. Y que, como quizá ocurra con todos los universos del multiverso, solo en esos raros planetas excepcionales como la Tierra, donde por puro azar se ha producido un afortunado jackpot de numerosas variables independientes entre sí, puede haber surgido la vida.

Recientemente he ido contando algunos de esos estudios que apoyan la excepcionalidad de la Tierra. Hace ya más de una década, quienes nos dedicamos a esto escribíamos que era inminente el momento en el que se encontraría un planeta gemelo del nuestro. Pero el tiempo no ha dado la razón a esta idea, sino que aún seguimos esperando: de los más de 4.000 exoplanetas ya conocidos, ni uno solo parece ser la versión 2.0 de la Tierra.

Es más, ninguno de ellos parece reunir todas las condiciones que hasta ahora se han planteado como las adecuadas para la presencia de vida, al menos vida compleja: el único que podría tener un campo magnético potente como el nuestro, Kepler-186f, necesitaría niveles letales de CO2 para mantener una temperatura habitable, como concluía un estudio que conté hace unos días. Aunque probablemente el gemelo terrestre acabará apareciendo tarde o temprano, no será un planeta mediocre, sino uno tan excepcional como el nuestro, único entre miles.

Representación artística de Kepler-186f. Imagen de NASA Ames/SETI Institute/JPL-Caltech.

Representación artística de Kepler-186f. Imagen de NASA Ames/SETI Institute/JPL-Caltech.

Como ya he explicado aquí, esas condiciones de habitabilidad que van proponiendo diversos estudios son ya bastante numerosas. Ahora se añade una más: si solo recientemente ha comenzado a apreciarse que no basta con lo que hay en su superficie para hacer a un planeta habitable, sino que también intervienen su estructura y composición interiores y la historia de su evolución, un nuevo estudio viene a añadir que tampoco basta simplemente con las características del propio planeta, sino que es toda la configuración de su Sistema Solar la que debe ser adecuada para que se produzca esa rara conjunción de factores necesarios para la vida.

El estudio, que según ha anunciado el Instituto SETI (siglas en inglés de Búsqueda de Inteligencia Extraterrestre) se publicará próximamente en la revista The Astronomical Journal, detalla los resultados de la mitad de las observaciones que el instrumento Gemini Planet Imager (GPI), perteneciente al telescopio Gemini South en Chile, ha recogido durante cuatro años. Este rastreo ha buscado planetas gigantes como Júpiter o Saturno en 531 estrellas cercanas y jóvenes. Para sorpresa de los investigadores, los datos muestran que estos planetas gigantes en torno a estrellas similares al Sol son más raros de lo que se pensaba.

Y respecto a lo que puede concluirse del estudio, esto es lo que dice su coautor Franck Marchis, del Instituto SETI: “Sospechamos que en nuestro Sistema Solar Júpiter y Saturno esculpieron la arquitectura final que influye en las propiedades de los planetas terrestres como Marte y la Tierra, incluyendo los elementos básicos para la vida como el transporte de agua y las tasas de impactos [de asteroides]”.

Y añade: “Un sistema planetario con solo planetas terrestres y sin planetas gigantes será probablemente muy diferente al nuestro, y esto podría tener consecuencias sobre la posibilidad de la existencia de vida en algún otro lugar de nuestra galaxia”.

En otras palabras: los datos llevan a Marchis a admitir la posibilidad de que tal vez la vida sea un fenómeno muy raro en la galaxia, si lo habitual en otros sistemas estelares es que no exista ese equilibrio entre planetas terrestres (rocosos) interiores y gigantes gaseosos exteriores que en nuestro sistema ha propiciado la arquitectura correcta y los procesos que han dependido de ella, como el transporte de agua a la Tierra. No está de más mencionar que Marchis trabaja en un instituto cuya razón de ser es precisamente la búsqueda de inteligencia extraterrestre, así que no puede decirse que le mueva el interés de demostrar que no existe la vida alienígena. Pero los datos son los datos.

En resumen, la idea de que la Tierra es un lugar mediocre como cualquier otro del universo está comenzando a pasar para muchos científicos de simple conjetura infundada a hipótesis refutada por los datos.

Pero respecto a la vida alienígena siempre se apunta una coletilla, y es la existencia de vida “tal como la conocemos”. Por supuesto, creer que cualquier forma de vida deba ser parecida a las terrestres sería terracentrismo. Hace unos días daban en la 2 de TVE una de las películas más extrañas de ciencia ficción (si así puede llamarse) que he visto, en la que sendos dobles alienígenas de Juan y Junior, cantantes españoles de los años 60 y 70, suplantaban a los originales como primer paso de una invasión y colonización a gran escala. El exoplaneta de la película era tan idéntico a la Tierra que incluso sus habitantes humanos eran dobles exactos de los terrícolas.

Y por supuesto, si por el contrario la vida alienígena es muy diferente de la terrestre, también podrían serlo las condiciones que para ella resultan habitables. ¿No?

Pero lo cierto es que esta es la segunda idea infundada de quienes defienden un universo lleno de vida. Para que la vida pueda llamarse vida, tiene que cumplir una serie de requisitos mínimos que diferencian a algo vivo de algo que no lo está, como una piedra. Y tanto las opciones disponibles como las condiciones que las permiten están limitadas; en biología no todo vale. Como veremos mañana.

Muchos planetas “habitables” tienen niveles de gases tóxicos incompatibles con la vida compleja

Hace unos días contaba aquí que, frente al optimismo de muchos sobre cuándo un planeta puede considerarse habitable, las aportaciones de científicos de diversas disciplinas han reducido bastante esa supuesta franja de habitabilidad. Ya no se trata solo de que un exoplaneta, además de tener un suelo rocoso y una atmósfera, se encuentre a la distancia apropiada de su estrella como para que su superficie no sea ni ardiente ni gélida y pueda existir agua en forma líquida, lo que se conoce como la zona “Ricitos de Oro” (por la niña del cuento que no quería la sopa muy caliente ni muy fría).

A esta condición básica, distintos expertos han añadido como requisitos para la vida la existencia de un campo magnético, un nivel de radiación moderado, una rotación no sincrónica, la presencia de una química precisa, una evolución inicial favorable, una dinámica tectónica activa y un ciclo sostenible de carbonatos-silicatos. Recientemente un análisis de los datos de los exoplanetas rocosos conocidos estimaba que solo uno, Kepler-186f, podría tener un campo magnético potente; lo que, de ser cierto, enfría bastante las esperanzas de que alguno de los planetas ya descubiertos pueda albergar vida, o al menos vida compleja.

Ilustración del sistema TRAPPIST-1. Imagen de NASA/JPL-Caltech.

Ilustración del sistema TRAPPIST-1. Imagen de NASA/JPL-Caltech.

Ahora, un nuevo estudio viene a recortar aún más las posibilidades de vida compleja en los exoplanetas. Investigadores de varias instituciones de EEUU, incluyendo la NASA, se han planteado la siguiente cuestión: nuestro propio planeta depende de un potente efecto invernadero creado por el dióxido de carbono (CO2) para mantener temperaturas compatibles con la vida. También en lo que se refiere al CO2 hay una zona Ricitos de Oro: Marte y Venus tienen atmósferas compuestas sobre todo por este gas; pero mientras que la de Marte es muy tenue, dando como resultado un planeta gélido, la de Venus es aplastante, con un efecto invernadero catastrófico que convierte a este planeta en el más caliente del Sistema Solar. Y sin embargo, ambos están situados en la zona de habitabilidad del Sol; para un exoastrónomo que nos observara desde la distancia, Venus y Marte serían tan habitables como la Tierra.

El objetivo de los autores del estudio es evitar este error a la hora de valorar la habitabilidad de los exoplanetas. Según cuentan en su trabajo, la definición actual de la zona habitable de un planeta extrasolar contempla la existencia de un efecto invernadero que en buena parte de esa franja requiere concentraciones de CO2 incompatibles con la vida compleja terrestre. Es más, y dado que muchos de los exoplanetas descubiertos orbitan en torno a estrellas enanas rojas –las más abundantes de la galaxia–, los autores añaden que “el tipo y la intensidad de radiación ultravioleta de estas estrellas pequeñas y frías puede conducir a altas concentraciones de monóxido de carbono (CO), otro gas letal”.

Basándose en estos datos, los autores concluyen que en dos de las estrellas más próximas a nosotros y en las que residían buenas esperanzas de hallar vida, Proxima Centauri y TRAPPIST-1, la zona habitable simplemente no existe. En otras estrellas, estos condicionantes reducen seriamente la posible franja de habitabilidad, y dejan fuera de ella a ciertos planetas que parecían también prometedores; por ejemplo, Kepler-186f quedaría en una zona de excesiva toxicidad por CO2, como puede verse en el gráfico.

En esta figura, toda la zona coloreada marca la franja de habitabilidad tal como se entiende tradicionalmente, basada solo en la temperatura de la estrella y en su luz. De toda esta franja, solo la parte azul contiene concentraciones de CO y CO2 compatibles con la vida compleja. Las partes en amarillo y rojo claro señalan respectivamente las zonas con exceso de CO2 y CO, mientras que en la zona de rojo oscuro ambos gases están presentes en concentraciones letales.

Según el director del estudio, Timothy Lions, de la Universidad de California en Riverside, sus resultados indican que “los ecosistemas complejos como los nuestros no pueden existir en la mayoría de las regiones de la zona habitable tal como se define tradicionalmente”. Por su parte, el primer autor del estudio, Edward Schwieterman, dice: “Pienso que mostrar lo raro y especial que es nuestro planeta refuerza la necesidad de protegerlo”. Y añade: “Hasta donde sabemos, la Tierra es el único planeta del universo que puede sostener la vida humana”.

Naturalmente, esto no implica que la Tierra sea el único planeta del universo que puede sostener la vida en general. De hecho, ciertos microbios pueden prosperar perfectamente en atmósferas ricas en CO2 e incluso en CO. Los propios autores del nuevo estudio han publicado recientemente otro trabajo en el que muestran cómo la presencia de altos niveles de CO no es necesariamente un signo de un planeta sin vida; pero en estos casos la vida solo podría restringirse a formas simples microbianas sin posibilidad de que existan organismos multicelulares, descartando la existencia de una civilización inteligente.

En un futuro cercano, los nuevos telescopios van a permitir obtener firmas espectrales (por el espectro de luz) de la composición atmosférica de muchos exoplanetas. Sin duda estos estudios ayudarán a valorar con más precisión qué planetas poseen atmósferas realmente habitables y cuáles no. Pero por el momento, quizá no estaría de más que resultados como los de Schwieterman, Lions y sus colaboradores se tengan en cuenta a la hora de presentar los nuevos exoplanetas descubiertos como “habitables”. Sobre todo para evitar la falsa impresión de que los lugares habitables en el universo son muy abundantes; una idea que hoy, como mínimo, solo puede calificarse de infundada.

Esta película de 1900 es la más antigua que existe de un eclipse de sol

Hace unos días, el pasado 29 de mayo, hemos celebrado el centenario de un fenómeno cuyo estudio científico convirtió a Albert Einstein en lo que es hoy; no en lo que él fue, sino en lo que es hoy. El alemán no necesitó otros argumentos que sus propios méritos para encumbrarse como uno de los mayores físicos de todos los tiempos. Pero en cambio, sus biógrafos tienden a coincidir en que el salto para convertirse en un icono (pósteres, camisetas) y en una antonomasia (“este niño es un Einstein”) se produjo gracias a un empujoncito mediático.

De hecho, suele decirse que Einstein fue el primer científico mediático de la historia, y no cabe duda de que es el más popular: todo el mundo sabe quién es Einstein, incluso quienes no tienen una idea clara de quiénes fueron los nueve físicos que le siguen en la encuesta publicada por la revista Physics World en 2000: Isaac Newton, James Clerk Maxwell, Niels Bohr, Werner Heisenberg, Galileo Galilei, Richard Feynman, Paul Dirac, Erwin Schrodinger y Ernest Rutherford.

Ese salto de Einstein a la inmortalidad popular nació el 29 de mayo de 1919, cuando dos expediciones británicas a Brasil y a la isla de Príncipe, en la costa africana, fotografiaron un eclipse de sol con el fin de comprobar una predicción de la relatividad general: si la gran masa del Sol doblaba la luz de las estrellas cercanas –desde nuestro punto de vista–, desplazando sus posiciones en el cielo (Newton también había predicho esta curvatura, pero con un valor mucho menor).

Aquellas expediciones y experimentos contaron con el concurso de varias personas, pero su principal impulsor fue el astrónomo Arthur Eddington. Cuando Eddington y sus colaboradores confirmaron la predicción de Einstein, el diario The Times publicó un titular en portada a tres columnas calificando el hallazgo de “revolución en la ciencia”, con declaraciones de Joseph John Thomson, codescubridor del electrón y entonces presidente de la Royal Society, elogiando la teoría general de la relatividad como “uno de los pronunciamientos más trascendentales, si no el más trascendental, del pensamiento humano”.

El eco de aquella noticia rebotó por todo el mundo, con la colaboración esencial del New York Times, que tampoco se quedó corto en alabanzas a Einstein. Y todo aquel revuelo, dicen sus biógrafos, fue lo que convirtió al físico alemán en la primera superestrella de la ciencia, a pesar de que, según se decía entonces, pocos entendían realmente de qué iba su teoría. O quizás precisamente por ello.

Con ocasión de la celebración del centenario, que se ha conmemorado en todo el mundo con diversos actos, hemos recibido además un regalo histórico-científico por cortesía de la Royal Astronomical Society (RAS) y el British Film Institute (BFI): la primera película jamás rodada y que hoy se conserva de un eclipse total de sol. No se trata de aquel eclipse de Eddington, sino de otro acaecido casi dos décadas antes, en 1900.

Un fotograma del eclipse de sol rodado por Nevil Maskelyne en 1900. Imagen de BFI.

Un fotograma del eclipse de sol rodado por Nevil Maskelyne en 1900. Imagen de BFI.

El metraje es obra del mago británico Nevil Maskelyne. El ilusionismo en la época victoriana se convirtió en un punto de colisión entre la ciencia y lo paranormal; los magos, con el ejemplo de Harry Houdini a la cabeza, se convertían a menudo en detectives de los fraudes orquestados por médiums y demás espiritistas. Por entonces fue muy sonado el enfrentamiento entre Houdini y Arthur Conan Doyle, paradójicamente uno de los más prominentes paladines del espiritismo, a pesar de que su hijo literario, Sherlock Holmes, era un modelo de empirismo racional. Hasta tal punto llegaba la confusión entre lo científico y lo paranormal que lo segundo contaba incluso con el apoyo de notables científicos como Alfred Russell Wallace, coautor de la teoría de la evolución.

Uno de aquellos magos desmontadores de fraudes espiritistas fue John Nevil Maskelyne, quien al parecer fue también el inventor de los baños públicos de pago. Maskelyne tuvo un hijo también mago llamado Nevil Maskelyne, y por desgracia en la información publicada por la RAS no queda del todo claro quién de los dos fue el autor de la película del eclipse; padre e hijo vivían en 1900. Algunos medios han dado por hecho que fue el propio padre, John Nevil, mientras que otros lo atribuyen al hijo, Nevil.

Fuera quien fuese de los dos, su trabajo cinematográfico fue verdaderamente pionero: la histórica película de los trabajadores abandonando la fábrica Lumière se rodó en 1895. Pero además de mago y cineasta, Maskelyne era un apasionado de la astronomía. Utilizando para su cámara un adaptador telescópico de su invención, en 1898 filmó por primera vez un eclipse en India, pero la película fue robada durante el viaje de vuelta. Dos años después volvía a intentarlo, esta vez con motivo de una expedición de la Asociación Astronómica Británica a Carolina del Norte.

El 28 de mayo de 1900 rodó la breve película que ha permanecido olvidada, sufriendo el deterioro del tiempo en los archivos de la RAS, hasta que ha sido rescatada, escaneada y restaurada por los expertos del BFI para traernos esta joya del pasado, uno de los ejemplos más tempranos de cine científico.

No, Pfizer no ha ocultado al mundo un fármaco que cura o previene el alzhéimer (II)

Como comencé a explicar ayer, desde hace años los investigadores han planteado la posibilidad de que los inhibidores de citoquinas proinflamatorias (moléculas que produce el cuerpo y que promueven la respuesta de inflamación contra las agresiones al organismo) podrían ser útiles en la lucha contra el alzhéimer, ya que la inflamación es uno de los síntomas de la enfermedad.

Sin embargo, y como también conté ayer, en realidad el proceso patológico del alzhéimer aún es desconocido, por lo que la inflamación podría no ser una causa, sino un efecto. De ser así, atacar la inflamación contra el alzhéimer sería como luchar contra un terremoto protegiendo la cristalería: se evitará que se rompan las copas y los vasos, pero nada más.

Es más, hasta tal punto se desconoce la patogénesis del alzhéimer que ni siquiera puede descartarse del todo que esta inflamación sea en realidad beneficiosa. Aunque la inflamación crónica suele tener efectos nocivos, en su origen es una respuesta del organismo contra una agresión. En el caso del alzhéimer, se ha propuesto incluso que la activación de la microglía (el sistema inmune propio del cerebro) podría ayudar a eliminar las placas de proteína beta-amiloide que tradicionalmente se han asociado con la muerte neuronal en los pacientes de alzhéimer.

Ilustración de anomalías neuronales en el alzhéimer: placas beta-amiloides (marrón) y ovillos neurofibrilares (azul). Imagen de NIH.

Ilustración de anomalías neuronales en el alzhéimer: placas beta-amiloides (marrón) y ovillos neurofibrilares (azul). Imagen de NIH.

El primer estudio piloto que evaluó el uso del etanercept de Amgen y Pfizer contra el alzhéimer se publicó en 2006, cuando el fármaco llevaba ya utilizándose contra la artritis reumatoide durante ocho años en EEUU, seis en Europa. En aquella ocasión, investigadores de la Universidad de California dirigidos por Edward Tobinick trataron a 15 pacientes de alzhéimer durante seis meses mediante inyecciones de etanercept en la médula espinal.

Al término del pequeño estudio, los investigadores observaron mejoras en los resultados de los test cognitivos de los pacientes. Esta fue su conclusión: “Un creciente volumen de ciencia básica y evidencias clínicas implica a los procesos inflamatorios y la resultante activación glial en la patogénesis del alzhéimer. Este pequeño estudio piloto sugiere que la inhibición de la citoquina inflamatoria TNF-α puede ser prometedora como enfoque potencial para el tratamiento del alzhéimer. Merece la pena emprender mayores ensayos clínicos aleatorizados y controlados con placebo”.

Es decir, que ya en 2006 la comunidad científica conocía la posible utilidad del etanercept en el tratamiento del alzhéimer. El estudio mereció un editorial en la revista que lo publicó, Medscape General Medicine, que subrayaba su carácter “altamente preliminar” y sus limitaciones, como la ausencia de controles con placebo y de un estudio farmacodinámico, pero que concluía: “No todos los días (o todos los años) se ven datos tan prometedores en el tratamiento del alzhéimer como los que se presentan en este artículo, y claramente se necesitan más estudios”.

En años posteriores, Tobinick continuaba publicando nuevos datos favorables, como un seguimiento de los pacientes y nuevos casos, también con resultados de mejoras cognitivas. A finales de la década pasada, los antiinflamatorios no esteroideos y en concreto los inhibidores de TNF-α, como el etanercept o el infliximab, ya estaban en el punto de mira de muchos investigadores del alzhéimer.

Conviene aclarar aquí algo que también se ha propagado estos días y que no es cierto. Algunos comentarios han aventurado que el etanercept no puede ser útil contra el alzhéimer porque no atraviesa la barrera hematoencefálica, el muro que separa el sistema nervioso central del resto del organismo. Pero algunos expertos piensan que el hecho de que el fármaco no atraviese esta barrera no tiene por qué impedir una posible acción beneficiosa: existen indicios de que un efecto antiinflamatorio en el sistema nervioso periférico puede reducir la inflamación en el cerebro. En el caso del TNF-α, la neutralización de esta citoquina fuera del cerebro podría reducir la cantidad de esta molécula que llega al propio cerebro.

Sin embargo, todo ello había que tomarlo con extrema cautela: además de que los datos de Tobinick no dejaban de ser anecdóticos (sin ensayos clínicos rigurosos), si por algo se distingue la investigación del alzhéimer es por la inmensa cantidad de cadáveres de fármacos prometedores que ha dejado en el camino. En ratones y ratas se ha logrado curar la enfermedad infinidad de veces. Pero en realidad los ratones y las ratas no padecen alzhéimer, por lo que se trata de modelos creados por los propios investigadores. Y dado que en realidad aún no se conoce cuál es la patogénesis del alzhéimer, los modelos animales no son réplicas verdaderas de la enfermedad, sino de algunos de sus síntomas. Se han creado empresas motivadas exclusivamente por un fármaco que curaba este falso alzhéimer en ratones. Y han cerrado empresas cuando se comprobaba que este fármaco no hacía absolutamente nada contra el alzhéimer real.

Modelo de alzhéimer en el cerebro de un ratón: placas beta-amiloides (rojo) entre las neuronas (verde). Imagen de NIH.

Modelo de alzhéimer en el cerebro de un ratón: placas beta-amiloides (rojo) entre las neuronas (verde). Imagen de NIH.

En el caso de los antiinflamatorios no esteroideos, muchos de ellos han curado el alzhéimer en ratones; ninguno de ellos ha funcionado en pacientes. También el etanercept y moléculas similares han mostrado eficacia en modelos animales, pero esto no es ni muchísimo menos una garantía de que servirán como fármaco.

Así las cosas, al mismo tiempo comenzaban a llegar otros datos no tan positivos. Dado que el etanercept por su propia naturaleza es un inmunosupresor, se reportaban casos de pacientes afectados por infecciones graves e incluso mortales por el uso de este medicamento contra la artritis reumatoide, lo que obligaba a la Agencia de Fármacos de EEUU a publicar una advertencia.

Esto tiene una implicación trascendental: el etanercept jamás será un fármaco para prevenir el alzhéimer. Sencillamente, tratar a personas sanas con un inmunosupresor durante largos periodos de su vida es algo que está fuera de toda discusión.

Por fin en 2015, el año en que la patente del etanercept expiró en Europa (no en EEUU), investigadores británicos emprendieron el primer ensayo clínico doble ciego, aleatorizado y controlado con placebos para evaluar el uso del fármaco contra el alzhéimer. Se trataba de un estudio aún muy pequeño, con 41 pacientes de alzhéimer, y en fase 2. La fase 1 de un ensayo clínico se centra en la seguridad del fármaco, mientras que la fase 2 confirma estos datos de tolerabilidad y empieza a valorar sus posibles efectos. Por cierto, y aunque en EEUU Amgen se había mostrado reticente a los ensayos clínicos del etanercept para otras indicaciones, este estudio fue financiado a través de una ayuda de Pfizer al investigador principal, Clive Holmes.

Los resultados de tolerabilidad fueron positivos. Sin embargo, los de eficacia fueron decepcionantes: “No hubo cambios estadísticamente significativos en cognición, comportamiento o función global”, escribían los autores del estudio. No había diferencias entre el etanercept y el placebo. Lo cual suscitó una evidente pregunta: ¿y si los resultados reportados por Tobinick solo eran un efecto placebo?

Aquí es donde las cosas empiezan a complicarse aún más. Por un lado, el ensayo británico empleó etanercept por vía subcutánea, no espinal como en los estudios de Tobinick. Pero los investigadores concluían: “El presente estudio no debería verse como un apoyo al uso subcutáneo no aprobado de etanercept para el tratamiento del alzhéimer. El etanercept tiene reconocidos efectos adversos potencialmente serios en la población”.

Al mismo tiempo, los resultados del estadounidense comenzaban a cuestionarse seriamente. Tras ser amonestado por el Consejo Médico de California por conducta no profesional, Tobinick se mudó a Florida, un estado permisivo, donde montó una clínica en la que aseguraba tratar todo tipo de enfermedades neurológicas –incluidas las no autoinmunes– mediante sus inyecciones. Sin ensayos clínicos relevantes, Tobinick comenzaba a cargar a sus pacientes altas sumas por tratamientos con etanercept. Se revelaba además que el investigador no era un neurólogo, sino un internista que antes se dedicaba a la depilación por láser. Al parecer, y después de que sus tratamientos contra el alzhéimer fracasaran, Tobinick se centró en otras enfermedades.

Y en todo esto, ¿dónde entra el lío con Pfizer que ha hecho correr tanta tinta física y digital en los últimos días? El pasado martes, el diario The Washington Post publicaba una exclusiva según la cual, decía el titular, “Pfizer tenía pistas de que su fármaco superventas podía prevenir el alzhéimer” y las ocultó al mundo. En el texto, el periodista contaba que a sus manos había llegado un Power Point en el que se mostraban datos de cientos de miles de reclamaciones de seguros médicos que algunos investigadores de la compañía habían cruzado en 2015, y que se presentaron a la dirección en 2018. Según estos datos, de dos grupos iguales de 127.000 pacientes con alzhéimer y otros tantos sin esta enfermedad, todos ellos afectados por artritis reumatoide o dolencias similares, en el primer grupo (alzhéimer) 110 personas habían recibido etanercept, mientras que en el segundo (no alzhéimer) eran 302.

La crítica a Pfizer se basa en que no hizo públicos estos datos. Lo cual no implica que se mantuvieran en secreto: Holmes dispuso de ellos para su ensayo clínico. Pero si la pregunta es si la comunidad científica debería disponer de este tipo de datos, no creo que nadie objete que la respuesta es sí; la comunidad científica siempre tiene y debe tener hambre de datos, por lo que ningún indicio sobra, ninguno está de más. Ahora bien, si la pregunta es si los datos de Pfizer eran realmente relevantes…

En primer lugar, los datos de Pfizer no son novedosos. En 2016 se publicó un estudio similar: investigadores estadounidenses cruzaron datos de pacientes con artritis reumatoide, con o sin alzhéimer, con o sin tratamiento con etanercept, y concluyeron que “hay un riesgo mayor de alzhéimer en la población de artritis reumatoide estudiada”, y que “el riesgo relativo de alzhéimer entre los sujetos con artritis reumatoide era menor en los expuestos a etanercept”.

En segundo lugar, ¿qué revelan en realidad estos datos? Exactamente lo que dicen: que entre los enfermos de artritis reumatoide hay menos casos de alzhéimer entre los tratados con etanercept. No hay en absoluto una relación causa-efecto demostrada, y correlación nunca significa causalidad; nada descarta la posibilidad, por ejemplo, de que el etanercept, una medicación con efectos adversos serios, se administre con más frecuencia a los pacientes con un cuadro general menos grave. Para discernir entre las posibles hipótesis alternativas y relacionar causas y efectos con base científica son imprescindibles los ensayos clínicos rigurosos.

Por último, y dado que los datos se refieren exclusivamente a enfermos de artritis reumatoide, no hay absolutamente nada en ellos que sugiera una utilidad del etanercept contra el alzhéimer en personas sin artritis reumatoide. El único estudio riguroso que ha abordado esta cuestión hasta ahora, el pequeño ensayo de Holmes, fue negativo.

Estructura del TNF-alfa. Imagen de BQUB14-Jcanas / Wikipedia.

Estructura del TNF-alfa. Imagen de BQUB14-Jcanas / Wikipedia.

En resumen, ¿cuáles son las perspectivas de que se obtenga algo válido del etanercept contra el alzhéimer? Desde luego, nada invita a sospechar que este fármaco vaya a ser jamás la bala mágica contra el alzhéimer. Como ya he dicho arriba, es impensable que se plantee su uso como medicamento preventivo. Si acaso los enfermos de artritis reumatoide tratados con el fármaco pudieran beneficiarse de un posible efecto secundario en este sentido, bienvenido sea. Pero esto no aporta nada al resto de la población general, ni siquiera a la población de riesgo por su perfil genético.

El propio artículo del Washington Post, excelentemente trabajado a pesar de su desafortunado titular click-bait, dice: “Ninguno de los expertos entrevistados para esta historia dijo que tal indicación fuera de etiqueta del Enbrel [etanercept] contra el alzhéimer sería apropiada, dada la naturaleza muy limitada de los datos hasta ahora. Ni creen que esta prescripción vaya a producirse de manera significativa”.

En definitiva, si del etanercept, ya en el dominio público, o de sus muchos fármacos biosimilares ya existentes, podrá obtenerse algo positivo en el futuro contra el alzhéimer, solo el tiempo lo dirá; siempre, naturalmente, que este tiempo se dedique a emprender múltiples ensayos clínicos rigurosos. Que Amgen y Pfizer decidieran no abordar estos ensayos forma parte de su libre derecho como empresas. Que no publicaran un conjunto de datos que no aporta nada novedoso y cuya relevancia científica es relativamente escasa puede ser todo lo criticable que a cada uno le parezca, por supuesto.

Pero tirar de esta anécdota para apoyar una causa general contra estas compañías o contra la Big Pharma solo viene a demostrar una vez más que los pilares más fuertes en los que se sostiene dicha causa general suelen ser el odio irracional y el pensamiento conspiranoico. Que se alimentan solo de titulares, no de las noticias que van debajo. Y que por cierto, también son una industria muy rentable.

No, Pfizer no ha ocultado al mundo un fármaco que cura o previene el alzhéimer (I)

Si todo lo que se está publicando y tuiteando hoy fuera cierto, sería un día histórico para la humanidad: este 6 de junio de 2019 tendríamos por fin un fármaco para curar y prevenir el alzhéimer. Es decir, que una vez desaparecido todo el revuelo de los juicios de valor sobre las prácticas empresariales de Pfizer, lo que quedaría de todo ello sería una noticia de inmensa trascendencia: la cura del alzhéimer.

Solo que no es cierto. Pfizer no tiene un fármaco que cura el alzhéimer. Pfizer no tiene un fármaco que previene el alzhéimer. Pfizer no ha ocultado al mundo que tiene un fármaco que cura ni previene el alzhéimer; en primer lugar, porque no lo tiene, y en segundo lugar, porque no hay nada oculto: este fármaco es de sobra conocido desde hace años por la comunidad científica, que ya ha estado valorando su potencial contra el alzhéimer sin necesidad de que Pfizer revele o deje de revelar nada.

Imagen de Pixabay.

Imagen de Pixabay.

Por lo tanto, hoy no es día de buenas noticias, sino de malas. La primera mala noticia es que la cura del alzhéimer sigue sin existir; si es que puede llamarse noticia a algo que continúa no siendo, tal como no lo era ayer. Lo que sí es seguro una mala noticia es que lo ocurrido hoy es un triunfo más de la desinformación y la demagogia.

Esta es la desinformación y demagogia que circula: Pfizer creó un fármaco del que sabe que cura o previene el alzhéimer, y lo enterró para que nadie lo utilizara porque le resulta más rentable que la gente siga enferma.

Y esta es la información: existe un fármaco creado por investigadores básicos, ampliamente conocido y que se emplea en el tratamiento de la artritis reumatoide. Desde hace años, la comunidad científica piensa que los fármacos de este tipo quizá podrían aportar algún beneficio contra el alzhéimer. De hecho, se han hecho diversos estudios sobre ello, sin que aún exista una pista clara sobre su posible utilidad. Con el tiempo, han surgido otros fármacos biosimilares (casi idénticos, con el mismo efecto). Pfizer, que vende el fármaco original, se planteó si emprender un ensayo clínico a gran escala. Decidió no hacerlo. Con independencia de las explicaciones que Pfizer pueda ofrecer o haya ofrecido al respecto, existen razones perfectamente comprensibles para que una compañía decida no abordar un enorme gasto de resultados inciertos sobre un fármaco cuyas patentes están expirando, que otras entidades pueden ensayar libremente y del que además ya existen otros clones sometidos a investigaciones y a disposición de la comunidad científica.

Y ahora, la versión larga, por si a alguien le interesa conocer la verdad entre tanto espumarajo.

En 1991, el equipo dirigido por Bruce Beutler en el University of Texas Southwestern Medical Center publicó la creación de una proteína quimérica (formada por la unión de trozos de otras) compuesta por el receptor del factor de necrosis tumoral alfa (TNF-α) y un fragmento de anticuerpo.

Estructura del etanercept. Imagen de NEUROtiker / Wikipedia.

Estructura del etanercept. Imagen de NEUROtiker / Wikipedia.

El TNF-α es una molécula producida por el organismo que promueve los procesos inflamatorios. La proteína quimérica tenía por objeto inhibir la acción del TNF-α in vivo, uniéndose a este y secuestrándolo para neutralizar su función. Dado que ciertas enfermedades como las autoinmunes producen sus síntomas a través de una activación incorrecta del sistema inmunitario, en la que el TNF-α desempeña un papel relevante, la idea de Beutler y sus colegas era que la molécula por ellos diseñada podía sumarse a otras opciones disponibles en el tratamiento de dichas dolencias. Los experimentos mostraron que la proteína bloqueaba eficazmente la acción del TNF-α.

Los investigadores patentaron su molécula y vendieron los derechos a la compañía biotecnológica Immunex, que en 1998 desarrolló el producto para el tratamiento de la artritis reumatoide. Su nombre es etanercept, y su marca comercial Enbrel. En 2002 Immunex fue absorbida por Amgen, que actualmente vende el etanercept en EEUU. En el resto del mundo (excepto Japón) la comercialización del fármaco corría a cargo de Wyeth, que en 2009 fue adquirida por Pfizer.

Desde entonces, el etanercept se ha venido utilizando para el tratamiento de la artritis reumatoide y otras enfermedades autoinmunes, no sin problemas: tanto este fármaco como otros similares son, por su propia definición, inmunosupresores, lo que ha llevado a que ciertos pacientes contraigan infecciones graves e incluso mortales.

Por otra parte, entra el alzhéimer, una enfermedad para la que no existe cura ni prevención y cuya causa primaria aún se ignora. Desde hace años se sabe que el cuadro inflamatorio forma parte del conjunto de síntomas del alzhéimer, pero sin que aún se conozca qué relevancia tiene este proceso en el desarrollo de la enfermedad. La posibilidad de que la inflamación pudiera ser un factor primario es solo una de las hipótesis que circulan en torno a la patología del alzhéimer, pero los investigadores consideran la posibilidad de que el tratamiento del cuadro inflamatorio pueda ayudar a paliar los síntomas o frenar su progresión.

Por ello, desde hace años los investigadores han comenzado a ensayar la posible acción de varios fármacos antiinflamatorios contra el alzhéimer, comenzando por los modelos animales. Uno de estos fármacos es el etanercept. La patente del fármaco expiró en Europa en 2015, mientras que en EEUU aún estará vigente hasta 2028 porque Amgen consiguió una extensión. En la práctica, esto implica que cualquier compañía puede producir etanercept fuera de EEUU. Incluso en aquel país, cualquier compañía puede producir otros inhibidores biosimilares, aunque probablemente (como de hecho ha ocurrido) se enfrente a demandas por parte de Amgen.

Lo que debe quedar claro con esto es que el etanercept, ni jamás ha sido secreto, ni jamás ha sido único, ni pertenece ya siquiera a Pfizer. Está publicado desde 1991, pertenece ya al dominio público (excepto en EEUU) y existen numerosas alternativas, desde los más generales antiinflamatorios no esteroideos hasta los más específicos inhibidores de TNF-α y, dentro de estos, los biosimilares; actualmente existe casi una veintena de fármacos biosimilares al etanercept en distintas fases de desarrollo y comercialización.

Y como es obvio, siendo un fármaco común –de hecho uno de los antiinflamatorios más vendidos del mundo–, tampoco ha estado guardado en un armario o en una caja fuerte. Mañana continuaremos contando qué dicen los ensayos emprendidos hasta ahora con este fármaco contra el alzhéimer, qué es lo que Pfizer sabía y no dijo, qué relevancia real tenía esto, y cómo un dato no científico en un Power Point que llega a manos de un periodista puede pintarse de amarillo para convertirse en una de las fake news más sonadas del momento.

Un planeta habitable no es solo cálido, y la Tierra es un caso muy raro

La Tierra es un raro y excepcional oasis, el único en un volumen de espacio de al menos 33,5 años luz cúbicos, o unos 3.500 hexillones de kilómetros cúbicos (millones de millones de millones de millones de millones de millones), si no me han fallado las cuentas.

Esto, considerando que el Sistema Solar se extiende hasta un radio de unos 2 años luz, que es a donde alcanza la influencia gravitatoria del Sol. Pero naturalmente, el espacio en el que la Tierra es el único reducto de vida es en realidad mucho mayor, extendiéndose hasta al menos la distancia donde alcanza la influencia gravitatoria de las estrellas más próximas. Si es que alguna de ellas acoge algún planeta con vida, que hasta ahora no nos consta.

Cierto que incluso estas gigantescas cifras suponen solo una minúscula y despreciable porción del universo visible. Pero para situar las cosas en su perspectiva adecuada, de vez en cuando conviene tratar de imaginar lo que estos números representan para ser conscientes de que no vivimos en un lugar cualquiera; en contra del principio de mediocridad –que en este caso es más una premisa que un principio–, todo lo que vamos conociendo sobre la Tierra y sobre otros planetas nos lleva a la idea de que el nuestro sí es un planeta excepcional.

Imagen de Max Pixel.

Imagen de Max Pixel.

Recientemente hemos sabido del descubrimiento de 18 nuevos exoplanetas de tamaño parecido al de la Tierra, que permanecían ocultos en los datos del telescopio espacial Kepler y se han revelado al aplicar un nuevo algoritmo. El hallazgo de planetas en otros sistemas estelares se ha convertido ya en algo casi rutinario; ya se conocen más de 4.000. De ellos, muchos se han presentado como “habitables”; es decir, que orbitan a una distancia adecuada de su estrella como para que las temperaturas en su superficie sean moderadas y permitan la posible existencia de agua líquida. Uno de los 18 nuevos exoplanetas podría cumplir esta condición.

Pero evidentemente, es fácil imaginar que una temperatura moderada no basta para hacer a un planeta habitable. Hace un par de meses conté aquí un estudio según el cual solo uno de los exoplanetas rocosos conocidos podría tener un campo magnético similar al terrestre, que en nuestro planeta protege la atmósfera y la vida del viento y la radiación estelar y ha ayudado a que la Tierra no pierda su agua.

De hecho, una frecuente objeción a la posible presencia de vida en otros planetas es la radiación a la que pueden estar sometidos. Algunos expertos actualmente favorecen las estrellas enanas rojas, tal vez las más abundantes en nuestra galaxia, como las mejores candidatas para albergar planetas con vida. Pero muchas de estas estrellas son fulgurantes, de temperamento tan violento que pueden duplicar su brillo en unos minutos, y la radiación de esas llamaradas súbitas puede hacer sus presuntos planetas habitables realmente inhabitables.

Además, los planetas en zona “habitable” (entiéndase, cálida) de las enanas rojas suelen estar tan cerca de su estrella que tienen acoplamiento mareal; es decir, siempre dan la misma cara, como la Luna a la Tierra. Lo cual probablemente implique que uno de los lados está permanentemente a temperaturas que congelan hasta los gases.

Con todo lo anterior ya tenemos no una, sino siete condiciones que debería cumplir un planeta para ser teóricamente habitable: una temperatura moderada, un sustrato de roca, una atmósfera, agua, un fuerte campo magnético, una estrella no demasiado violenta y preferiblemente una rotación no sincronizada con la de su estrella. La Tierra cumple todas estas condiciones. Es el único planeta del Sistema Solar que las cumple. Y como ya he dicho, hasta ahora solo se conoce un único exoplaneta que posiblemente cumpliría tres de ellas.

Un exoplaneta considerado "habitable" podría ser esto. Imagen de Max Pixel.

Un exoplaneta considerado “habitable” podría ser esto. Imagen de Max Pixel.

Pero aquí no acaban los requisitos. Recientemente, la revista Science publicaba un artículo en el que un grupo de investigadores de la Institución Carnegie para la Ciencia (EEUU) analizaba precisamente cuáles son las condiciones necesarias para considerar que un planeta podría ser habitable. Y entre ellas, destacaban la importancia de algo que suele olvidarse: el interior.

En resumen, los autores vienen a subrayar que el movimiento de las placas tectónicas en la Tierra es crucial para preservar el clima adecuado del que depende la vida. La tectónica de placas mantiene el ciclo de carbonatos-silicatos, por el que se reciclan los materiales geológicos entre la superficie y el interior de la Tierra. El cambio climático tiene mucho que ver con la alteración de este ciclo por las emisiones antropogénicas de gases de efecto invernadero; de hecho, la catástrofe de este ciclo fue lo que convirtió a Venus en un infierno inhabitable. Al mismo tiempo, la tectónica de placas mantiene también la convección en el interior de la Tierra que crea el campo magnético que a su vez nos protege de la radiación.

Habitabilidad de un exoplaneta. Imagen de Shahar et al / Science.

Habitabilidad de un exoplaneta. Imagen de Shahar et al / Science.

Y todo esto, sugieren los autores, a su vez depende de la composición química de la Tierra. Es decir, que elementos fundamentales en la geología de los planetas rocosos como carbono, oxígeno, hidrógeno, hierro, silicio o magnesio, tal vez tengan que hallarse en las proporciones precisas y haber sufrido unos determinados procesos de calentamiento y enfriamiento en la infancia del planeta para que exista esa geodinámica que sustenta la vida. Si esos mismos elementos se encuentran en proporciones diferentes, o la evolución del planeta es distinta, tal vez no sea posible la vida.

Así que ya tenemos: una temperatura moderada, un sustrato de roca, una atmósfera, agua, un fuerte campo magnético, una estrella no demasiado violenta, preferiblemente una rotación no sincronizada con la de su estrella, presencia de ciertos elementos químicos en proporciones precisas, una evolución favorable en la historia inicial del planeta, tectónica de placas y un ciclo estable y adecuado de carbonatos-silicatos. Todo esto es lo que posiblemente se necesite, según distintos expertos, para decir que un planeta podría ser habitable.

Así que, sí, la Tierra es un lugar extremadamente raro. Tanto que hasta ahora no se ha encontrado otro igual. Por supuesto, a todo este asunto de la habitabilidad planetaria se le suele aplicar esa famosa coletilla: vida “tal como la conocemos”. Sobre la otra hay mucha ciencia ficción. Pero dado que en el mundo real ningún científico serio y acreditado ha aportado el menor indicio creíble de que pueda haberla de otro tipo, ni siquiera en teoría, dejémoslo en que vida “tal como la conocemos” es sencillamente “vida”. Al menos, mientras nadie demuestre lo contrario.

¿Qué le falta a esta música generada por Inteligencia Artificial?

No, no es una adivinanza, ni una pregunta retórica. Realmente me pregunto qué es lo que le falta a la música generada por Inteligencia Artificial (IA) para igualar a la compuesta por humanos. Sé que ante esta cuestión es fácil desenvainar argumentos tecnoescépticos, una máquina no puede crear belleza, nunca igualará a la sensibilidad artística humana, etcétera, etcétera.

Pero en realidad todo esto no es cierto: las máquinas pintan, escriben, componen, y los algoritmos GAN (Generative Adversarial Network, o Red Antagónica Generativa) ya las están dotando de algo muy parecido a la imaginación. Además, y dado que las mismas máquinas también pueden analizar nuestros gustos y saber qué es lo que los humanos adoran, no tienen que dar palos de ciego como los editores o productores humanos: en breve serán capaces de escribir best sellers, componer hits y guionizar blockbusters.

El salto probablemente llegará cuando los consumidores de estos productos no sepamos (no “no notemos”, sino “no sepamos”) que esa canción, ese libro o esa película o serie en realidad han sido creados por un algoritmo y no por una persona. De hecho, la frontera es cada vez más difusa. Desde hace décadas la música y el cine emplean tanta tecnología digital que hoy serían inconcebibles sin ella. Y aunque siempre habrá humanos detrás de cualquier producción, la parcela de terreno que se cede a las máquinas es cada vez mayor.

Pero en concreto, en lo que se refiere a la música, algo aún falla cuando uno escucha esas obras creadas por IA. El último ejemplo viene de Relentless Doppelganger. Así se llama un streaming de música que funciona en YouTube 24 horas al día desde el pasado 24 de marzo (el vídeo, al pie de esta página), generando música technical death metal inspirada en el estilo de la banda canadiense Archspire, y en concreto en su último álbum Relentless Mutation (Doppelganger hace referencia a un “doble”).

Este inacabable streaming es obra de Dadabots, el nombre bajo el que se ocultan CJ Carr y Zack Zukowski, que han empleado un tipo de red neural llamado SampleRNN –originalmente concebida para convertir textos en voz– para generar hasta ahora diez álbumes de géneros metal y punk inspirados en materiales de grupos reales, incluyendo el diseño de las portadas y los títulos de los temas. Por ejemplo, uno de ellos, titulado Bot Prownies, está inspirado en Punk in Drublic, uno de los álbumes más míticos de la historia del punk, de los californianos NOFX.

Imagen de Dadabots.

Imagen de Dadabots.

Y, desde luego, cuando uno lo escucha, el sonido recuerda poderosamente a la banda original. En el estudio en el que Carr y Zukowski explicaban su sistema, publicado a finales del año pasado en la web de prepublicaciones arXiv, ambos autores explicaban que su propósito era inédito en la generación de música por IA: tratar de captar y reproducir las “distinciones estilísticas sutiles” propias de subgéneros muy concretos como el death metal, el math rock o el skate punk, que “pueden ser difíciles de describir para oyentes humanos no entrenados y están mal representadas por las transcripciones tradicionales de música”.

En otras palabras: cuando escuchamos death metal o skate punk, sabemos que estamos escuchando death metal o skate punk. Pero ¿qué hace que lo sean para nuestros oídos? El reto para los investigadores de Dadabots consistía en que la red neural aprendiera a discernir estos rasgos propios de dichos subgéneros y a aplicarlos para generar música. Carr y Zukowski descubrieron que tanto el carácter caótico y distorsionado como los ritmos rápidos de estos géneros se adaptan especialmente bien a las capacidades de la red neural, lo que no sucede para otros estilos musicales.

Y sin duda, en este sentido el resultado es impresionante (obviamente, para oídos que comprenden y disfrutan de este tipo de música; a otros les parecerá simple ruido como el de las bandas originales). Pero insisto, aparte del hecho anecdótico de que las letras son simples concatenaciones de sílabas sin sentido, ya que no se ha entrenado a la red en el lenguaje natural, la música de Dadabots deja la sensación de que aún hay un paso crucial que avanzar. ¿Cuál es?

No lo sé. Pero tengo una impresión personal. Carr y Zukowski cuentan en su estudio que la red neural crea a partir de lo ya creado, lo cual es fundamental en toda composición musical: “Dado lo que ha ocurrido previamente en una secuencia, ¿qué ocurrirá después?”, escriben Carr y Zukowski. “La música puede modelizarse como una secuencia de eventos a lo largo del tiempo. Así, la música puede generarse prediciendo ¿y entonces qué ocurre? una y otra vez”.

Pero esto ocurre solo un sampleado tras otro, mientras que un tema escrito por un compositor humano tiene un sentido general, un propósito que abarca toda la composición desde el primer segundo hasta el último. Toda canción de cualquier género tiene una tensión interna que va mucho más allá de, por ejemplo, la resolución de los acordes menores en acordes mayores. Es algo más, difícil de explicar; pero al escuchar cualquier tema uno percibe un propósito general de que la música se dirige hacia un lugar concreto. Y da la sensación de que esto aún le falta a la música automática, dado que la máquina solo se interesa por un “después” a corto plazo, y no por lo que habrá más allá. Se echa de menos algo así como una tensión creciente que conduzca hacia un destino final.

Sin embargo, creo que ya pueden quedar pocas dudas de que la música generada por IA terminará también superando estos obstáculos. Ya tenemos muchos ejemplos y muy variados de composiciones cien por cien digitales. Y si hasta ahora ninguna de ellas ha conseguido instalarse como un hit, ya sea entre el público mayoritario o entre los aficionados a estilos musicales más marginales, se da la circunstancia de que tampoco ninguna de ellas ha cruzado la barrera de lo etiquetado como “diferente” porque su autor no es de carne y hueso. Probablemente llegará el momento en que un tema se convierta en un éxito o en un clásico sin que el público sepa que el nombre que figura en sus créditos no es el de la persona que lo compuso, sino el de quien programó el sistema para crearla.

¿Realmente empeora el tiempo los fines de semana? ¿Hay una razón?

Todos los años por estas fechas, en los largos coletazos finales de la primavera caprichosa, somos muchos quienes tenemos esta impresión: de lunes a viernes empezamos a quejarnos del calor que nos pica –a muchos les pilla sin el cambio de armario–, pero al menos sabemos que el fin de semana podremos ir de terrazas, cenar al raso y hacer esas otras cosas que nos gusta hacer sin un techo encima, sobre todo cuando hay de por medio humanos en estado larvario.

Hasta que llega el viernes y todo se va al carajo: viene un frente frío, el termómetro se cae al suelo y fuera nos espera otro techo, de nubarrones negros cargados de lluvia. Así que, vuelta a encerrarnos entre cuatro paredes.

Para muestra, dos ejemplos: ocurrió el pasado fin de semana, y vuelve a ocurrir este en ciertas zonas del país.

¿Realmente es así, o es solo algo esporádico que ocurre de forma casual, pero que notamos especialmente porque nos frustra los planes? Y si algo de esto hay, ¿sucede de forma habitual durante todo el año, y es en primavera cuando más lo advertimos?

Típico plan de fin de semana estropeado por la lluvia. Imagen de Lee Haywood / Flickr / CC.

Típico plan de fin de semana estropeado por la lluvia. Imagen de Lee Haywood / Flickr / CC.

Al menos, parece que los meteorólogos y los climatólogos tampoco son inmunes a estas impresiones, y a algunos les ha dado por curiosear para saber si somos nosotros o realmente es el tiempo. En 2008 el climatólogo Arturo Sánchez-Lorenzo, de la Universidad de Barcelona, reunió datos de 13 estaciones meteorológicas dispersas por zonas urbanas y rurales de España, y que comprendían un periodo de 44 años, de 1961 a 2004.

En honor a la verdad, hay que aclarar que ignoro por completo si Sánchez-Lorenzo estaba motivado por el efecto planes-para-el-fin-de-semana-que-se-joden-en-primavera. Pero dado que hoy la influencia de la contaminación antropogénica en el clima ya está sobradamente demostrada, los climatólogos se han preguntado si los ciclos de actividad que varían a lo largo de la semana, como las emisiones de las fábricas y del tráfico, pueden afectar a los ritmos del tiempo meteorológico.

Y curiosamente, aquel estudio descubrió que sí, que algo de ello hay: Sánchez-Lorenzo y sus colaboradores encontraron que los fines de semana en España tienden a ser más soleados en invierno que el resto de la semana, mientras que en primavera y en verano sucede lo contrario, son más fríos y lluviosos. Para comparar los datos, los autores analizaron también una serie histórica de Islandia, descubriendo que allí los fines de semana del invierno son más lluviosos.

“Sugerimos que los ciclos semanales pueden relacionarse con cambios en la circulación atmosférica sobre Europa Occidental, lo que puede deberse a algún efecto indirecto de los aerosoles antropogénicos”, escribían. Los investigadores encontraron también que la presión atmosférica a nivel del mar aumentaba en el sur de Europa durante los fines de semana del invierno; es decir, que en los días centrales de la semana las condiciones eran menos anticiclónicas.

Pero el estudio de Sánchez-Lorenzo no ha sido el único que ha examinado este fenómeno. De hecho, ya en 1998 dos investigadores de la Universidad Estatal de Arizona (EEUU) habían descrito que la lluvia en el Atlántico Norte no se veía afectada por los ciclos semanales, excepto en la superpoblada costa este de EEUU, donde los sábados llovía un 22% más que los lunes. Es más, este efecto ya se había notado antes en algunas grandes ciudades.

Otros investigadores han descubierto que en Alemania cae más lluvia el fin de semana, y que también en este caso los patrones se invierten en invierno y en verano, o que en ciertos lugares de EEUU ocurre justo lo contrario, pero también con una periodicidad semanal, o que algo similar sucede en Melbourne y otras ciudades australianas. Otro estudio encontró que los tornados y las tormentas de granizo típicos de los veranos en ciertas regiones de EEUU tienden a acumularse a mediados de semana.

Pero a pesar de todos estos estudios, los climatólogos advierten de que los datos deben interpretarse con cautela. Algunos expertos descartan la hipótesis de los ciclos semanales, y de hecho también hay algún estudio que no ha encontrado tales efectos. El año pasado, la climatóloga Angeline Pendergrass decía a Business Insider que “el efecto es más psicológico que meteorológico”, dado que incluso si existe alguna diferencia en las temperaturas, es de solo fracciones de grado, demasiado pequeña como para que nos demos cuenta.

Claro que tampoco lo olvidemos: estos estudios manejan valores promedio. Lo cual significa que si durante un par de fines de semana seguidos no ocurre nada apreciable, pero al tercero tenemos boda al aire libre con sandalias y es justo cuando al termómetro se le encoge el ombligo del susto, tal vez la media total de temperaturas no lo note mucho, pero nosotros sí. Y los novios, ni te cuento.

“El planeta”, la boba (e incorrecta) muletilla medioambiental de moda

Ahora que por fin la conciencia sobre el medio ambiente ha entrado a formar parte de las preocupaciones del ciudadano medio, ocurre sin embargo que “el medio ambiente” ha desaparecido de la faz del planeta, siendo sustituido, precisamente, por “el planeta”.

Salvar “el planeta”. Preocuparse por “el planeta”. Reciclar por “el planeta”. Incluso, según he oído, al parecer un diputado prometió su lealtad a la Constitución “por el planeta”. Pero ¿tiene esto algún sentido?

Evidentemente, alerto de que todo esto en realidad no tiene la menor importancia. Si desean asuntos de verdadera trascendencia para “el planeta”, estoy seguro de que en las pestañas que coronan estas líneas encontrarán esas precisas y preciosas informaciones sobre qué diputado aplaudió o dejó de aplaudir en cada discurso, o de qué color eran las chapitas que llevaba. Pero si todavía queda por ahí alguien a quien le guste hablar con propiedad, le invito a seguir leyendo.

Estructura de la Tierra. Imagen de Kelvinsong / Wikipedia.

Estructura de la Tierra. Imagen de Kelvinsong / Wikipedia.

¿Qué es un planeta? Les advierto: para conocer su definición no se les ocurra acudir al diccionario de la RAE, esa institución que dice no imponer la lengua, sino recoger el uso que los ciudadanos le dan. En este empeño recolector, se diría que la noble academia debe de sufrir una artritis galopante, porque lleva 13 años sin reaccionar a la actualización de la definición de “planeta”. La definición de nuestro diccionario oficial es para hundir la cabeza entre las manos (entre paréntesis, mis comentarios):

Cuerpo celeste (hasta ahí, bien) sin luz propia (no exactamente: los planetas pueden emitir luz infrarroja) que gira en una órbita elíptica (no es cierto: se han detectado exoplanetas con órbitas circulares; es raro, pero no imposible, y de hecho la de la Tierra es casi circular) alrededor de una estrella (nada de eso; hay planetas sin estrella), en particular los que giran alrededor del Sol: Mercurio, Venus, la Tierra, Marte, Júpiter, Saturno, Urano, Neptuno y Plutón (¿cómooo?).

Eso es; dejando aparte todo lo demás, 13 años después del derrocamiento oficial de Plutón como planeta, la RAE aún no se ha enterado. Profesores de ciencias: si un alumno les pone en un examen a Plutón como planeta y se lo dan por malo, vayan pensando en qué responder a los padres cuando les pongan delante el diccionario de la RAE.

En realidad, hasta 2006 se venía utilizando una definición informal de planeta. Pero ocurrió que para otros objetos del Sistema Solar muy similares a Plutón podía reclamarse este estatus planetario. Así que la Unión Astronómica Internacional (UAI) decidió que debía aprobarse una definición científica precisa; de hecho, en ciencia es imprescindible que los términos sean unívocos y explícitos.

Básicamente, había dos posturas enfrentadas: o se adoptaba una definición más amplia, y la lista de planetas del Sistema Solar empezaba a crecer sin medida, quizá incluso cada año, o se elegía una más restrictiva que dejaba fuera a Plutón. Ganaron los partidarios de esta última opción, aunque la polémica nunca ha dejado de colear.

Así, la UAI decidió que un planeta del Sistema Solar es un cuerpo celeste que orbita alrededor del Sol, tiene suficiente masa para estar en equilibrio hidrostático (una forma redondeada) y ha aclarado su órbita de otros objetos.

Es decir, que el tal diputado, sin que probablemente él tenga la menor idea, prometió la Constitución española por el cuerpo celeste que orbita alrededor del Sol, tiene suficiente masa para estar en equilibrio hidrostático (una forma redondeada) y ha aclarado su órbita de otros objetos.

Pero ¿dónde está aquí el medio ambiente?

Sencillamente, en ninguna parte. “Planeta” es un concepto astronómico, sin más; no tiene nada que ver con la vida en él. Hasta ahora, lo que sabemos es que lo normal en un planeta es que no haya vida. Y si hablamos del nuestro, al planeta le da exactamente igual que toda la vida sobre él se extinga.

De hecho, “el planeta” seguirá siendo “el planeta” cuando toda la vida sobre él se haya extinguido, lo que esperemos no ocurra hasta dentro de miles de millones de años; pero si ocurriera mañana mismo, “el planeta” no dejaría de ser “el planeta”, ni sería un planeta peor, ni menos planeta. A menos que Thanos y su guante de pedrería fina destruyan el equilibrio hidrostático de la Tierra y le hagan perder su forma redondeada, o llenen su órbita de escombros intergalácticos.

Entonces, ¿de dónde viene esta bobería? Aunque es difícil encontrar una referencia clara y directa de esto, puedo intuir que el término se ha introducido a raíz de la popularización del cambio climático, ya que se habla de calentamiento global del planeta. Pero en realidad no es más que una sinécdoque, el todo por la parte: aumenta la temperatura media global del aire y de los océanos, no la de “el planeta”. El 99% del volumen total de la Tierra lo ocupan el manto y el núcleo, donde las temperaturas son de cientos o miles de grados. Así que el impacto de la variación en el aire y el agua sobre la temperatura media del planeta tomada en su conjunto es más que despreciable. “El planeta” ni se entera.

Así pues, ¿cuál es el antídoto contra esta bobada? ¿Qué tal regresar a “el medio ambiente” de toda la vida? O para quien quiera ser algo más técnico, lo correcto sería decir “la biosfera”, que se define como la zona de la Tierra donde hay vida o puede haberla; los ecosistemas en su conjunto con todas sus interacciones entre sí y con su medio, ya sea sólido, líquido o gaseoso.

Todo esto trata de la preocupación por la biosfera, que es la que estamos destruyendo a marchas forzadas. Pero para los preocupados por “el planeta”, tengo una buena noticia que les dejará dormir tranquilos: el planeta está perfectamente a salvo, y nadie se lo cargará ni queriendo. Ni siquiera Thanos, que solo podía con la biosfera.

Así que, dejemos a los planetas donde deben estar:

¿Más allá de una duda razonable? No para el glifosato

La ciencia y el derecho son disciplinas de galaxias tan lejanas que un encuentro entre ambas podría parecer improbable. Y sin embargo, esto ocurre a diario incontables veces en los tribunales, siempre que un juez solicita un peritaje de contenido científico. Es más, estos testimonios a menudo son determinantes en el desenlace del proceso.

Lo cual es problemático: como ya expliqué aquí, un informe del Consejo de Asesores en Ciencia y Tecnología del presidente de EEUU denunciaba a propósito de la ciencia forense que “los testigos expertos a menudo sobreestiman el valor probatorio de sus pruebas, yendo mucho más allá de lo que la ciencia relevante puede justificar”.

O sea, que muchas sentencias se basan en una presunta certeza científica que en realidad no existe. Y como también conté aquí, no todos los expertos están de acuerdo, por ejemplo, en que un trastorno mental deba actuar como atenuante o eximente. Más aún cuando no todo en psicología tiene el carácter científico que se le supone.

El resultado de todo esto es que puede incurrirse en una contradicción de consecuencias fatales para un acusado: un ignorante en derecho como es un servidor está acostumbrado a oír aquello de que solo debe emitirse una sentencia condenatoria cuando se prueba la culpabilidad más allá de una duda razonable. Si esto es cierto, y no solo un cliché de las películas de abogados, hay multitud de casos con intervención de peritajes científicos en los que esto no se cumple.

Tenemos ahora de actualidad otro flagrante ejemplo de ello. Esta semana hemos conocido que la empresa Monsanto, propiedad de Bayer, ha sido condenada a resarcir con más de 2.000 millones de dólares a una pareja de ancianos de California, quienes alegaron que los linfomas no Hodgkin que ambos padecen fueron causados por el uso del herbicida glifosato, que Monsanto comercializa bajo la marca Roundup y que, vencida ya la patente, es el más utilizado en todo el mundo. El caso no ha sido el primero. De hecho, Monsanto y Bayer se enfrentan a más de 9.000 demandas en EEUU. Y muchas más que llegarán, si una demanda a Monsanto es la gallina de los huevos de oro.

Roundup de Monsanto. Imagen de Mike Mozart / Flickr / CC.

Roundup de Monsanto. Imagen de Mike Mozart / Flickr / CC.

Por supuesto que a la sentencia se le ha hecho la ola. Si sumamos el típico aplauso popular a quienes atracan el furgón del dinero, al odio que ciertos sectores profesan hacia la industria farmacéutica en general, y al especial aborrecimiento que concita Monsanto, esta condena es como la tormenta perfecta del populismo justiciero, el movimiento anti-Ilustración y el ecologismo acientífico.

Pero más allá de esto, y de la simpatía que toda persona de bien siente hacia una pareja de ancianos enfermos de cáncer, si se supone que nuestro sistema occidental se basa en un estado de derecho, se supone también que es inevitable preguntarse si se ha hecho justicia.

Y la respuesta es no.

Porque ni se ha demostrado ni es posible demostrar si el glifosato causó el cáncer de los ancianos, o si (mucho más probable, estadísticamente hablando) el causante fue algún otro factor de su exposición ambiental, simples mutaciones espontáneas y/o factores genéticos.

A todo lo más que puede llegar la ciencia es a valorar el potencial cancerígeno del glifosato en general. No voy a entrar en detalles sobre lo que ya habrán leído o han podido leer en otros medios si el asunto les interesa: que tanto la Agencia de Protección Medioambiental de EEUU como la Agencia de Seguridad Alimentaria de la Unión Europea consideran hasta ahora que el glifosato no es carcinógeno en su uso recomendado, y que en cambio en 2015 la Agencia Internacional de Investigación del Cáncer (IARC) dependiente de la Organización Mundial de la Salud (OMS) lo incluyó en el grupo 2A, “probablemente carcinógeno para humanos”, a pesar de que los propios autores del estudio reconocieron que si bien había datos en modelos animales, en humanos eran escasos.

Debido a ello, el dictamen fue criticado por muchos científicos bajo la acusación de haber maximizado algunos datos y haber minimizado otros, como un gran estudio que ha seguido a más de 90.000 granjeros en EEUU desde 1993 y que no ha encontrado relación alguna entre el glifosato y el linfoma.

Pero es esencial explicar qué significa esta clasificación de la IARC para situar las cosas en su contexto. Existen cuatro grupos, desde el 1, los que son seguros carcinógenos, como el tabaco, el sol, las bebidas alcohólicas, las cabinas de bronceado, la contaminación ambiental, la píldora anticonceptiva, la carne procesada, ciertos compuestos utilizados en la Medicina Tradicional China, el hollín, el serrín, la exposición profesional de zapateros, soldadores, carpinteros y así hasta un total de 120 agentes.

A continuación le siguen el 2A, el del glifosato, con 82 agentes, y el 2B, los “posiblemente carcinógenos”, con 311 agentes. Por último se encuentra el grupo 3, que reúne a todos los demás, aquellos sobre los que aún no se sabe lo suficiente (500 agentes). Solía haber un grupo 4, los no cancerígenos, que solo incluía una única sustancia, la caprolactama. Pero recientemente este compuesto se movió a la categoría 3 y la 4 se eliminó, con buen criterio, dado que es imposible demostrar que una sustancia no causa cáncer.

Con esta primera aproximación, y viendo los agentes del grupo 1, ya se puede tener una idea de cuál es el argumento, sin más comentarios, salvo quizá aquella sabia cita de Paracelso: “todo es veneno, nada es veneno; depende de la dosis”. El grupo 2A, en el que se incluyó el glifosato en 2015, reúne agentes como los esteroides anabolizantes, el humo de las hogueras o de las freidoras, la carne roja, las bebidas calientes, los insecticidas, el asfalto, el trabajo nocturno en general o la exposición ocupacional de peluqueros, fabricantes de vidrio o peones camineros.

En el caso de los ancianos de California, y aunque sea imposible demostrar que su cáncer tenga relación alguna con el glifosato o que no la tenga, al parecer el jurado dictaminó a favor de los demandantes porque los envases de glifosato no contenían ninguna advertencia sobre su posible carcinogenicidad, como sustancia clasificada en el grupo 2A de la IARC.

Ahora la pregunta es: ¿tendrán derecho a demandar los consumidores de bebidas alcohólicas, de carnes rojas y procesadas, de anticonceptivos orales, bebidas calientes, insecticidas o Medicina Tradicional China, quienes tienen chimenea en su casa, los clientes de las cabinas de bronceado, los trabajadores de freidurías y churreros, carpinteros, peones, trabajadores nocturnos, peluqueros, soldadores, vidrieros o zapateros, porque en todos los productos correspondientes o en sus contratos de trabajo no se advertía de este riesgo claramente catalogado por la IARC? (Y esto por no llevarlo al extremo del esperpento con las personas expuestas a la contaminación ambiental y al sol, porque en estos dos últimos casos sería difícil encontrar a alguien a quien demandar).

En resumen, la carcinogenicidad de una sustancia o de un agente no es un sí o no, blanco o negro; al final debe existir una decisión humana que requiere apoyarse en mucha ciencia sólida, y no simplemente en la “voz del experto”. Especialmente porque la de un jurado popular ni siquiera lo es. Y por mucha simpatía que despierten los ancianos, arriesgar los empleos de cientos o miles de trabajadores de una empresa, y el sustento de cientos o miles de familias, debería requerir al menos algo de ciencia sólida.

Lo más lamentable de todo esto es que los dos ancianos probablemente ni siquiera van a poder disfrutar demasiado de lo que han conseguido. Sería de esperar, si es que queda algo de justicia, que al menos los abogados los hayan pagado sus herederos.

Nota al pie: como ya lo veo venir, rescato aquí la norma que viene siendo habitual desde hace años en las revistas científicas, por la cual es obligatorio declarar la existencia o no de conflictos de intereses, y que no estaría mal que se aplicara también como norma al periodismo. El que suscribe nunca ha trabajado para, ni ha recibido jamás remuneración o prebenda alguna de, la industria farmacéutica. Miento: creo recordar que en una ocasión me regalaron una pelota de Nivea en una farmacia. Y también trabajé un par de años en una startup biotecnológica española, una experiencia de la que salí escaldado. Pero esa es otra historia.