Archivo de octubre, 2019

Los telescopios Hubble y Spitzer celebran Halloween con máscaras espaciales

No, no es el muñeco del profesor que aparecía en The Wall de Pink Floyd (que es a quien personalmente más me recuerda, ver más abajo). Tampoco es un Balrog de El señor de los anillos, que podría darse un aire si le añadiéramos unos buenos cuernos. Pero imagino que a los científicos del telescopio espacial Hubble les habrá dado un vuelco el corazón al encontrarse con esta terrorífica cara mirándonos desde las profundidades del espacio, y que llega justo a tiempo para Halloween (aunque, bueno, la imagen se tomó en junio).

Imagen del sistema Arp-Madore 2026-424 tomada por el Hubble el 19 de junio de 2019. Imagen de NASA, ESA, J. Dalcanton, B.F. Williams, y M. Durbin (University of Washington).

Imagen del sistema Arp-Madore 2026-424 tomada por el Hubble el 19 de junio de 2019. Imagen de NASA, ESA, J. Dalcanton, B.F. Williams, y M. Durbin (University of Washington).

Como ya puede intuirse, las dimensiones de este inquietante rostro son también monstruosas. Basta decir que sus ojos son los núcleos de dos galaxias colisionando en este preciso y breve momento de la historia del universo en que los humanos estamos aquí. Los ojos están rodeados por un rostro formado por un anillo azul de estrellas jóvenes, y que aparece por el choque entre los discos de ambas galaxias, lo que expulsa sus materiales hacia fuera.

Según los científicos del Hubble, esta cara durará solo por tiempo limitado, unos 100 millones de años, así que aprovechen ahora o se lo perderán, ya que dentro de mil o dos mil millones de años ambas galaxias se habrán fusionado por completo. Para los astrónomos, este sistema se llama Arp-Madore 2026-424.

Y si acaso este pavoroso semblante se les aparece persiguiéndoles en sus pesadillas, tengan en cuenta que tampoco deberán correr demasiado para huir de él: se encuentra a 704 millones de años luz de nosotros. Mucha prisa tendría que darse para alcanzarles, ya que en realidad estamos viendo el sistema Arp-Madore 2026-424 como era hace 704 millones de años, cuando la Tierra era una gran bola de hielo donde aún no había nada vivo más complejo que una célula o, como mucho, quizá alguna esponja rudimentaria.

Una réplica del muñeco del profesor en 'The Wall' de Pink Floyd. Imagen de Pixabay.

Una réplica del muñeco del profesor en ‘The Wall’ de Pink Floyd. Imagen de Pixabay.

Pero eso no es todo. Para unirse a la fiesta, los científicos del telescopio espacial Spitzer han publicado esta imagen que han denominado muy propiamente la nebulosa de la calabaza, ya que su parecido con el símbolo más típico de Halloween es más que evidente. Al contrario que en el caso anterior, no es una imagen en longitud de onda visible, sino en infrarrojo, por lo que no lo veríamos así a simple vista.

Lo que muestra la imagen es la nube de gas y polvo que rodea a una estrella entre 15 y 20 veces más masiva que el Sol, y cuya potente radiación ha empujado los materiales tallando los ojos y la boca de esta calabaza espacial. Y por cierto, esta se encuentra en nuestra propia galaxia, así que, ¡corran!

Imagen tomada por el telescopio espacial Spitzer. Imagen de NASA/JPL-Caltech .

Imagen tomada por el telescopio espacial Spitzer. Imagen de NASA/JPL-Caltech .

Y para terminar, no está de más volver a recordar que, guste o no guste Halloween, que allá cada cual, pensar que se trata de un invento yanqui importado para aniquilar la fiesta cristiana de Todos los Santos es haberlo entendido justo al revés de como es realmente. Citando a la profesora de la Universidad de Boston Regina Hansen:

Muchas prácticas asociadas con Halloween tienen sus orígenes en la religión precristiana o pagana de los celtas, los habitantes originales de las islas británicas y de partes de Francia y España.

Desde en torno al siglo VII, los cristianos celebraban el Día de Todos los Santos el 13 de mayo. A mediados del siglo VIII, sin embargo, el Papa Gregorio III movió el Día de Todos los Santos desde el 13 de mayo al 1 de noviembre, para que coincidiera con la fecha del Samhain [la festividad celta].

Aunque existe desacuerdo sobre si este movimiento se hizo a propósito para absorber la práctica pagana, el hecho es que desde entonces las tradiciones cristiana y pagana comenzaron a fusionarse. En Inglaterra, por ejemplo, el Día de Todos los Santos comenzó a conocerse como All Hallows Day. La noche de la víspera se convirtió en All Hallows Eve, Hallowe’en o Halloween, como se conoce ahora.

Así que, feliz Halloween, Samhain, Samaín o Todos los Santos; que cada cual elija lo que le parezca, y que celebre y deje celebrar.

Protección planetaria, la política que impide buscar vida en otros mundos

Es curioso que, siendo la búsqueda de vida alienígena uno de los objetivos que cualquiera esperaría de las misiones espaciales, en realidad nunca ha sido así. Como conté ayer aquí, solo ha existido una misión destinada a buscar vida fuera de la Tierra: las dos sondas gemelas Viking de la NASA que exploraron Marte en 1976. De hecho, la búsqueda de vida alienígena no figura como un objetivo específico de la NASA.

Lo cierto es que confirmar la existencia de vida extraterrestre, incluso en el propio Sistema Solar, no es algo sencillo. Si alguna lección enseñaron las Viking, es precisamente la dificultad de diseñar experimentos de detección de vida que lleguen a resultados concluyentes. Pero también es evidente que, si se hubiera continuado en la línea abierta por aquella misión, probablemente se habría perfeccionado la tecnología necesaria. En la época de las Viking aún estaban naciendo las tecnologías de ADN, pero hoy la extracción, amplificación y secuenciación de ADN de microbios son técnicas de uso común.

Por algún motivo, durante décadas la biología ha sido la gran olvidada de las misiones espaciales, dominadas por otras ramas científicas como la astrofísica y las ciencias planetarias. Pero las cosas están cambiando. Hace un año, un informe de las Academias Nacionales de Ciencia, Ingeniería y Medicina de EEUU recomendaba a la NASA “expandir la búsqueda de vida en el universo y hacer de la astrobiología una parte integral de sus misiones”, haciendo notar que hasta entonces las misiones interplanetarias habían estado dominadas por la geología y habían dejado de lado la biología.

Pero existe, además, otro gran impedimento para buscar vida en otros mundos del Sistema Solar. Y no es científico, sino político: la protección planetaria. Por este nombre se conocen las directrices nacidas del Tratado del Espacio Exterior de 1967, y que las agencias espaciales establecen con el fin de evitar que las sondas puedan contaminar otros mundos con microbios terrestres. Entre estas directrices, la NASA incluye la norma de evitar los lugares de Marte más propicios para la vida, que podrían contaminarse con más facilidad. Claro que, si se evitan los lugares más propicios para la vida, ¿cómo va a ser posible encontrar vida?

Autorretrato del rover Curiosity en Marte, tomado en enero de 2018. La imagen es un mosaico de docenas de fotografías con distintos ángulos, lo que permite borrar el propio brazo de la cámara. Imagen de NASA/JPL-Caltech/MSSS.

Autorretrato del rover Curiosity en Marte, tomado en enero de 2018. La imagen es un mosaico de docenas de fotografías con distintos ángulos, lo que permite borrar el propio brazo de la cámara. Imagen de NASA/JPL-Caltech/MSSS.

Con esto ya puede intuirse que la protección planetaria es un asunto debatible y controvertido. Hoy las posturas oficiales, como la política de protección planetaria de la NASA, se sitúan del lado del hiperproteccionismo; es decir, tratar los presuntos hábitats extraterrestres –dando por hecho que existen– con un escrúpulo infinitamente mayor del que se aplicaría al más frágil de los ecosistemas terrestres. Aquí, en casa, los espacios naturales protegidos pueden cerrarse al público si se consideran especialmente vulnerables, pero ¿cómo iba a trabajar la ciencia en favor de su conservación si se la dejara fuera?

Un ejemplo de esta postura extrema es un artículo recientemente publicado por la científica planetaria Monica Grady, a propósito de la sonda israelí Beresheet que el pasado abril se estrelló contra la Luna. Beresheet llevaba una carga de tardígrados, popularmente llamados osos de agua; bichitos microscópicos capaces de sobrevivir en el espacio en una especie de estado de latencia. Grady admitía que probablemente estos animalitos no van a vivir por mucho tiempo en la Luna, pero planteaba la cuestión: ¿y si hubiera sido Marte en lugar de la Luna? “Tenemos la responsabilidad de mantener Marte lo más prístino posible”, escribía la científica.

Esta opinión parece abundar entre los científicos planetarios. En mayo el investigador del Planetary Science Institute Steve Clifford decía a la revista Discover: “En nuestra búsqueda de vida, podríamos ser responsables de la extinción de la primera biosfera alienígena que detectáramos”. En el mismo artículo, la geóloga marciana Tanya Harrison se preguntaba: “Qué ocurriría si dañáramos el mayor descubrimiento de la historia?”.

En el extremo opuesto se sitúan los defensores de la terraformación de Marte: convertir el planeta vecino en un lugar habitable para los humanos, lo que implica modificar profundamente cualquier hábitat nativo que pudiera existir allí. La idea, explorada a menudo por la ciencia ficción, tiene también sus partidarios en la vida real. Este mes, un artículo publicado por tres científicos en la revista FEMS Microbiology Ecology sostiene que “la introducción de microbios [terrestres en otros mundos] no debería considerarse accidental, sino inevitable”, y que la previsible expansión del ser humano a otros mundos aconseja un control sobre este proceso para sembrar microbios beneficiosos, por lo que los investigadores proponen “un programa riguroso para desarrollar y explorar protocolos proactivos de inoculación”.

La diferencia de enfoque está clara: tanto el primer firmante de este artículo, Jose V. Lopez de la Nova Southeastern University de Florida, como sus dos coautores, son biólogos. Obviamente, no es que la biología en pleno vaya a situarse en este lado del debate ni a defender una opción tan radical como la terraformación. Pero sí es cierto que el principio de precaución maximalista esgrimido tradicionalmente por los científicos planetarios ha prescindido de lo que la biología puede aportar al respecto. Y cuando se pregunta a los biólogos, ocurren cosas como esta: el genetista de Harvard Gary Ruvkun decía al Washington Post que la idea de que los microbios residuales que quedan en las sondas esterilizadas vayan a colonizar otro planeta es “de risa, como de los años 50”.

Ruvkun fue precisamente uno de los autores de un informe de las Academias Nacionales de Ciencias, Ingeniería y Medicina de EEUU que el pasado año instaba a la NASA a revisar y actualizar sus políticas de protección planetaria. En respuesta a esta petición de las Academias, la NASA creó un comité para revisar sus directrices. El comité lo dirige un científico planetario, Alan Stern, investigador principal de la misión New Horizons que exploró Plutón; pero por fin entre sus doce miembros se incluyen dos biólogos.

El comité acaba de publicar ahora un documento con sus conclusiones, que recomiendan actualizar la política de protección planetaria de la NASA –e involucrar en ella a los nuevos operadores espaciales privados– teniendo en cuenta el panorama actual y futuro de la exploración espacial, que vaticina un tráfico más intenso de materiales, aparatos y personas entre la Tierra y otros mundos.

Básicamente, el informe recomienda que las políticas se adecúen de forma más flexible a cada situación concreta, y no con el actual criterio de máxima restricción. Por ejemplo, en el caso de Marte se aconseja separar las zonas de exploración humana, donde inevitablemente se introduciría más contaminación, de aquellas de interés astrobiológico, donde debería limitarse la presencia humana y operar mediante sondas robóticas. En cualquier caso, el informe reconoce que la invasión de Marte por microbios terrestres es algo muy improbable.

Lo mismo se aplica a los mundos oceánicos, como Encélado, Europa o Titán, para los que hay misiones planificadas en los próximos años y para los cuales actualmente se exige un nivel de esterilización de las sondas que el informe reconoce como “anacrónico y a veces poco realista” e “innecesariamente conservador”.

En resumen, parece que se avecinan nuevos y buenos tiempos para la astrobiología. O, como mínimo, tiempos en que los astrobiólogos van a tener un papel más relevante en el diseño de las misiones espaciales. Ya se sabe que las cosas de palacio van despacio, y conviene recordar que por el momento no existe ni una sola misión planificada cuyo objetivo directo sea la búsqueda de formas de vida alienígena. Pero para quienes ahora empiecen a estudiar biología o vayan a hacerlo en los próximos años, podría ser la oportunidad, quién sabe, de participar en el mayor descubrimiento científico de la historia.

El día que más cerca estuvimos de hallar vida en Marte

El 30 de julio de 1976 se encontró vida en Marte. O, al menos, eso es lo que lleva defendiendo desde hace 22 años Gilbert Levin, ingeniero responsable de uno de los experimentos de la única misión en la historia de la exploración espacial que ha buscado vida en otro mundo: las dos sondas gemelas Viking 1 y 2, que se posaron en dos lugares de Marte distantes entre sí más de 6.000 kilómetros para responder a la vieja incógnita de si existe algo vivo en el que entonces se creía el segundo mundo más propicio del Sistema Solar para la vida.

Sobre la misión Viking ya he hablado aquí en varias ocasiones. Para la biología es una referencia única, ya que, no está de más repetirlo, a continuación sigue la lista de todas las misiones lanzadas al espacio en busca de vida.

1. Viking.

Y ya. Y por el momento no hay ninguna otra prevista para buscar vida in situ. Así que, quienes se quejan del dinero gastado en la búsqueda de alienígenas, y no empleado para otros fines más urgentes aquí en la Tierra, pueden estar tranquilos: el ser humano no está gastando ni, que esté previsto, va a gastar un solo céntimo en tratar de comprender por vías racionales quiénes somos en el universo; eso sí, seguirá dedicando ingentes cantidades de riqueza a tratar de averiguarlo por vías espirituales, esotéricas y mágicas.

Imagen de la sonda Viking 1 en Marte. Imagen de Roel van der Hoorn / NASA / JPL / Wikipedia.

Imagen de la sonda Viking 1 en Marte. Imagen de Roel van der Hoorn / NASA / JPL / Wikipedia.

Viking fue el producto de un momento de mucha euforia y poco dinero. Tras el éxito de la conquista de la Luna se diseñó un programa llamado Voyager (no relacionado con las dos sondas del mismo nombre que exploran el espacio profundo) cuyo objetivo era enviar aparatos a Marte en los años 70 para preparar el terreno a las misiones tripuladas en los 80. Voyager fue una de las víctimas del brutal hachazo a los presupuestos de la NASA que causó la cancelación del programa Apolo. Y aunque la posibilidad de enviar astronautas a Marte se esfumó por completo, Viking fue una versión más modesta y barata que recuperaba los objetivos científicos de Voyager.

Entre esos objetivos, había uno por encima de todos los demás: buscar vida. También esto era un producto de la euforia del momento: entre los años 60 y 70, había que ser realmente un descreído incurable para pensar que no había vida en otros mundos. La misión Viking iba a por todas, con una serie de instrumentos de la última tecnología de la época, destinados a esclarecer a la primera si había algo vivo en Marte.

Y sí, lo había. Eso fue lo que encontraron Levin y el resto de científicos del experimento de emisión marcada (Labeled Release, LR): las dos Viking, en enclaves muy alejados entre sí, detectaron presunta actividad microbiana.

El LR era muy sencillo en su idea, muy complejo para llevarla a la práctica en un aparato situado en otro planeta que debía funcionar por sí solo. En 1952, Levin había inventado un método para detectar contaminación microbiana en el agua y en los alimentos, que se basaba en el famoso experimento con el que Louis Pasteur refutó la generación espontánea.

Pasteur demostró cómo la entrada de microbios al interior de un matraz podía demostrarse por el efecto de su actividad sobre un caldo de cultivo, y cómo la esterilización por calor eliminaba dicha actividad. De igual modo, el método de Levin consistía en dar alimento a los posibles microbios marcianos y medir después la presencia de compuestos resultantes de ese metabolismo. En el caso del LR, el carbono suministrado era radiactivo con el fin de poder detectarlo (los isótopos radiactivos son un marcaje muy habitual en los experimentos biológicos, porque pitan) si las muestras de suelo marciano emitían CO2, el producto de desecho común en los seres vivos.

Fue aquel 30 de julio cuando Levin y sus colaboradores recibieron los primeros resultados de las Viking, y eran positivos. Había algo en Marte que estaba consumiendo los nutrientes y produciendo CO2. Los resultados aguantaron todos los controles incluidos en el experimento y las pruebas adicionales del sistema realizadas en la Tierra.

La primera imagen tomada en la superficie de Marte, por la sonda Viking 1 el 20 de julio de 1976. Imagen de NASA/JPL.

La primera imagen tomada en la superficie de Marte, por la sonda Viking 1 el 20 de julio de 1976. Imagen de NASA/JPL.

Entonces, ¿caso cerrado? Por desgracia, no. Otro experimento de las Viking encargado de detectar moléculas orgánicas, las que forman todos los seres vivos conocidos, dio resultado negativo, lo que finalmente llevó a la NASA a concluir que los datos del LR eran solo un falso positivo. Pero después de años manteniendo una posición cauta, en 1997 Levin presentó su conclusión definitiva: las Viking habían encontrado vida en Marte.

Desde entonces, Levin ha continuado defendiendo su hipótesis a través de las décadas. Curiosamente, misiones posteriores con aparatos más sensibles han podido confirmar que sí existen moléculas orgánicas en Marte, lo que elimina la objeción por la que en su día se rechazaron los resultados del LR. Pero ¿por qué, a pesar de esto, las conclusiones de Levin no se han aceptado como válidas?

La respuesta está en que, tratándose de una proclama tan extraordinaria, las pruebas deben ser también extraordinarias. Un experimento LR en la Tierra requeriría demostraciones menos exigentes, dado que la existencia de vida aquí es algo sobradamente probado. Pero para admitir que las Viking encontraron vida, antes deberían descartarse por completo y de forma inequívoca todas las hipótesis alternativas; es decir, que la reacción del carbono observada en el LR no se debió a algún proceso puramente químico o geológico en lugar de bioquímico o biológico.

Esto habría podido hacerse si se hubiera seguido trabajando para profundizar en la misma línea, pero no se hizo. Es curioso cómo la línea posterior la ha marcado no un experimento exitoso, sino uno fallido: si las Viking no hubieran fracasado en la detección de las moléculas orgánicas que de hecho sí existen en Marte, es probable que después de aquella misión se hubiera continuado tratando de confirmar la presencia de vida.

Este mes, Levin ha vuelto a la carga, publicando en Scientific American (una revista popular de ciencia, pero no una revista científica) un artículo en el que continúa defendiendo su hipótesis de que las Viking hallaron vida en Marte. Levin recuerda sus resultados, y con mucho acierto escribe: “Inexplicablemente, más de 43 años después de las Viking, ninguna de las sondas posteriores que la NASA ha posado en Marte ha llevado un instrumento de detección de vida para profundizar en estos emocionantes resultados. En su lugar, la agencia ha lanzado una serie de misiones a Marte para determinar si alguna vez existió un hábitat adecuado para la vida, y de ser así, finalmente traer muestras a la Tierra para su examen biológico”.

Es decir, rescatando un símil que ya he utilizado aquí, es como analizar si en una casa hay mascotas viendo si existe algún rastro de que hay o hubo en algún momento una caseta de perro, una cama de gato o una jaula de hámster, y buscando en los armarios de la cocina para saber si hay comida de perros, gatos o hámsters, en lugar de mirar directamente si en la casa hay un perro, un gato o un hámster.

También hay que decir que no todos los argumentos de Levin son impecablemente rigurosos. Entre los muchos indicios adicionales que aporta a favor de la vida en Marte, menciona alguno un poco exótico: una imagen tomada por el rover Curiosity, dice, mostraba una formación similar a un gusano. Otras imágenes, añade, parecen mostrar líquenes o estromatolitos (tapetes de microbios fosilizados). Pero aparte del hecho de que pensar que en Marte existen no ya microbios, sino gusanos o líquenes, es algo que muchos no vamos a creernos a no ser que nos los restriguen por la cara, esto no favorece precisamente su tesis; la pareidolia ha sido el argumento tradicional de multitud de ideas pseudocientíficas. Y dejando de lado el clásico de Jesús en la tostada, en Marte ya hemos tenido nuestra buena ración de fotos de caras, bichos, hombrecillos, lagartos e incluso elefantes.

Pareidolia: la imagen de un elefante en la región marciana de Elysium Planitia. Imagen de NASA/JPL/University of Arizona.

Pareidolia: la imagen de un elefante en la región marciana de Elysium Planitia. Imagen de NASA/JPL/University of Arizona.

Por último, Levin añade que en 43 años ningún experimento o teoría ha proporcionado una explicación definitiva no biológica de los resultados del LR. Pero también aquí el autor está cayendo en un argumento popular, pero no científico: es la explicación biológica la que debe probarse.

Pero sí hace notar una gran contradicción, y es que “la NASA mantiene la búsqueda de vida alienígena entre sus prioridades más altas”, y a pesar de ello, no hace nada al respecto. Levin cuenta un detalle interesante, y es que propuso a la NASA un experimento para el rover Mars 2020, la próxima misión marciana que se lanzará el año próximo.

La idea de Levin era un instrumento basado en el LR que fuera capaz de detectar la quiralidad de las moléculas. La quiralidad es lo que tienen los guantes: un guante derecho no se transforma en un guante izquierdo cuando lo giramos, porque está fabricado con una quiralidad concreta. Lo mismo sucede con las moléculas de los seres vivos, ya que las enzimas, los catalizadores de los procesos biológicos, utilizan y producen moléculas con una quiralidad concreta, izquierda o derecha.

Si los resultados del LR se debieron a un proceso puramente químico geológico, la quiralidad debería ser arbitraria: se encontrarían tantas moléculas a derechas como a izquierdas. Por el contrario, si se encontrara una quiralidad preferente, sin duda sería una prueba de que hay enzimas implicadas, y que por lo tanto es un proceso biológico. Pero si Levin presentó un proyecto formal, en cualquier caso la NASA no lo seleccionó, porque la carga de instrumentos del Mars 2020 ya está definida y no incluye ningún instrumento biológico.

Pero ¿por qué la NASA no busca vida alienígena, si se supone que es uno de sus objetivos prioritarios? Mañana lo explicaremos.

No, la ganadería no emite más gases de efecto invernadero que el transporte

Uno de los grandes logros de la lucha contra el cambio climático, aparte por supuesto de impulsar las acciones destinadas a combatirlo, es conseguir que la realidad científica se imponga a los prismas ideológicos o políticos. El hecho de que uno sea de derechas o de izquierdas, mainstream o alternativo, mediopensionista o de solo desayuno, defensor del roscón de reyes con fruta escarchada o sin ella, no cambia el hecho científico de que el cambio climático antropogénico existe. Y aunque algunos no reconocerían que el ácido fluoroantimónico es extremadamente corrosivo ni aunque vieran cómo disuelve su propio dedo, en estos casos es evidente de qué parte está la realidad y de cuál la fantasía.

No obstante, el trabajo de la ciencia no ha terminado, ni muchísimo menos. Y en esta época en que las fake news suelen ser más virales que las noticias verídicas, la ciencia no debe perder la vigilancia para salir al paso de aquellas proclamas que no son ciertas, pero que muchos aceptan como tales sin espíritu crítico, solo por el hecho de que nadan a favor de su corriente.

Sobre todo cuando es la ciencia la que ha metido la pata en primer lugar. Por supuesto, la ciencia no es infalible. Se equivoca, y por eso se vigila a sí misma para corregir continuamente sus errores, al contrario que los sistemas subjetivos de conocimiento como las ideologías o las religiones. Cada año se retractan cientos de estudios, una media de cuatro de cada 10.000 publicados; trabajos en los que se demuestra que hubo fraude deliberado por parte de los autores (un 60% de los casos), o mala ciencia, o situaciones aún más complicadas, cuando se hace ciencia rigurosa y concienzuda pero se descubre de repente que la metodología era defectuosa.

De esto hemos conocido un caso curioso esta semana, al detectarse que un software estadístico usado en ciertos estudios arroja resultados distintos según el sistema operativo del ordenador en el que se ejecuta, por un fallo en el código. Como ya he explicado aquí, solo cuando numerosos estudios impecables apuntan a las mismas conclusiones es cuando puede darse una conclusión por válida.

Lo que ocurre es que, cuando se trata de conclusiones que entroncan directamente con sesgos ideológicos o políticos, la retracción suele causar el mismo efecto en la opinión de muchos que el ácido disolviendo el dedo: ninguno.

Este es el caso de la historia que traigo hoy. A propósito de mi anterior artículo, en el que describía la visión de numerosos expertos sobre la necesidad de consumir menos, y no de consumir verde, para luchar contra el cambio climático (el artículo no estaba escrito para dar voz a mi propia opinión, a pesar de la impresión que pueda dar el título; me limito a traer la ciencia que publican los científicos, aunque soy consciente de que no incluir el típico y pesado arranque de “investigadores dicen que…” puede dar la impresión errónea de que esto es una tribuna personal, cosa que no es), ha sucedido algo completamente esperable.

Y es que algunos lectores han aprovechado la ocasión para airear la proclama de que sobre todo hay que dejar de consumir carne, ya que, dicen, la ganadería produce más emisiones de gases de efecto invernadero (GEI) que todo el sector global del transporte. Sobre los móviles y la tecnología que menciono en el artículo, ni pío.

Mercado de ganado en Mali. Imagen de ILRI / Wikipedia.

Mercado de ganado en Mali. Imagen de ILRI / Wikipedia.

El hecho de que alguien piense que es un asesinato matar animales para alimentarnos es una opinión subjetiva defendible; no avalada por las leyes, pero filosóficamente defendible (filosóficamente, porque viene arraigada y avalada en el trabajo de ciertos filósofos). Siempre que uno acepte eso, que es solo una opinión subjetiva. Yo podría pensar que debería ser un delito de tentativa de homicidio imprudente utilizar el móvil mientras se conduce, lo cual sería simplemente una opinión subjetiva, incluso a pesar de que el uso del móvil al volante está prohibido; asignar categorías morales a los hechos o conductas es algo que no viene marcado por las leyes de la naturaleza, sino solo por las nuestras.

El problema viene cuando se defiende una opinión subjetiva aportando datos científicos que son falsos; cuando se trata de justificar un argumento con ciencia fallida que no deja de serlo simplemente por su viralidad, imposible de extinguir aunque se meta el dedo en el ácido.

Esta es la historia. En 2006, la Organización de Naciones Unidas para la Alimentación y la Agricultura, la FAO, publicó un informe titulado Livestock’s Long Shadow, o la larga sombra de la ganadería. El documento afirmaba que la ganadería produce un 18% de las emisiones globales de GEI, más que todo el sector global del transporte.

Naturalmente, el informe de la FAO se convirtió de inmediato en el poster child de todos los movimientos animalistas y veganos. Pero en el mundo de la ciencia, las reacciones fueron inmediatas. Numerosos científicos que manejaban sus propios datos alzaron la voz denunciando que aquella conclusión de la FAO era del todo falsa. No olvidemos un detalle: aunque evidentemente la ONU y la FAO no son cualquier mindundi, ya expliqué aquí que un informe de la ONU no es un estudio científico, ya que no ha pasado por el sistema de revisión por pares de las publicaciones científicas.

Finalmente, los responsables del informe tuvieron que admitir que, en efecto, sus datos estaban sesgados. Para el cómputo de las emisiones de la ganadería se había tenido en cuenta todo el ciclo de vida, mientras que para el transporte solo se había considerado la quema de combustibles fósiles; los gases de los tubos de escape. Pierre Gerber, uno de los autores del informe, admitió a la BBC: “Hemos sumado todo para las emisiones de la carne, y no hemos hecho lo mismo para el transporte”.

Para entender el fallo, basta pensar en el caso de los móviles y la tecnología que ya he mencionado anteriormente: un móvil no tiene tubo de escape, por lo que sus emisiones son cero. Pero cuando se suma la producción de energía necesaria no solo para recargar su batería, sino para mantener las redes, servidores, centros de datos y demás infraestructuras necesarias para que un móvil sea algo más que un pisapapeles, el resultado es que la tecnología digital produce el 4% de las emisiones de GEI.

Desde entonces, el grupo de la FAO que produjo el informe ha retractado sus conclusiones. Y no solo porque el dato del 18% se rebajara al 14,5%, sino sobre todo por lo que el director del informe, Henning Steinfeld, escribía en 2018 junto a su colaboradora Anne Mottet: “No podemos comparar el 14% del sector del transporte calculado por el IPCC [el panel de la ONU sobre cambio climático] con el 14,5% de la ganadería usando el enfoque del ciclo de vida”.

Henning y Mottet rectificaban su informe con nuevos datos: en emisiones directas, un 5% para la ganadería y un 14% para el transporte; en emisiones de ciclo de vida, un 14,5% para la ganadería, y “hasta donde sabemos no existe una estimación disponible de ciclo de vida para el sector del transporte a nivel global”, escribían, añadiendo que, según los estudios, “las emisiones del transporte aumentan significativamente cuando se considera todo el ciclo de vida del combustible y los vehículos, incluyendo las emisiones de la extracción de combustibles y del desechado de los vehículos viejos”.

Gráfico de la FAO comparando las emisiones directas y del ciclo de vida de la ganadería y el transporte. Imagen de FAO.

Gráfico de la FAO comparando las emisiones directas y del ciclo de vida de la ganadería y el transporte. Imagen de FAO.

Claro que, podría alegarse, existen otras estimaciones además de las del IPCC. Por ejemplo, según la Agencia de Protección Medioambiental de EEUU, en aquel país el 29% de las emisiones de GEI proceden del transporte, el 28% de la producción de electricidad, un 22% de la industria y un 9% del sector primario, del cual algo menos de la mitad corresponde a la ganadería, lo que cuadra a grandes rasgos con el dato de la FAO.

Los propios autores del informe de la FAO que reconocieron su error insistían además en algo que no debería dejar de imprimirse siempre con letras mayúsculas, en negrita y con todos los subrayados posibles:

La carne, la leche y los huevos son cruciales para atajar la malnutrición. De los 767 millones de personas que viven en extrema pobreza, la mitad de ellos dependen del pastoralismo, son pequeños propietarios o trabajadores que extraen de la ganadería su alimentación y sustento. La fallida comparación y la mala prensa sobre la ganadería puede influir en los planes de desarrollo y las inversiones y aumentar aún más la inseguridad alimentaria.

Finalmente, los expertos de la FAO subrayan algo que ya otros muchos científicos se han encargado de mostrar en numerosos estudios, y es que ni toda la ganadería ni todos los sistemas de ganadería son iguales en cuanto a su impacto ambiental. Por ejemplo, un estudio reciente detallaba que en general el cerdo, el pollo, el pescado, los huevos y los vegetales tienen un impacto menor que el vacuno y el ovino. Como escribía el experto en ciencias animales y calidad del aire de la Universidad de California Frank Mitloehner, “evitar la carne y los productos de la carne no es la panacea medioambiental que muchos quieren hacernos creer. Y si se lleva al extremo, podría tener consecuencias nutricionales dañinas”.

Por supuesto que eliminar la ganadería reduciría las emisiones de GEI: un 2,6%, según un estudio reciente, y a cambio de condenar a millones de personas a la desnutrición. En su lugar, los científicos expertos aducen que hay un gran potencial de mitigación de las emisiones en mejorar las actividades ganaderas y hacerlas más eficientes. Por ejemplo, Mitloehner cita datos de la FAO según los cuales las emisiones directas de la ganadería en EEUU se han reducido un 11,3% desde 1961, mientras que la producción de carne ha aumentado a más del doble. En resumen, quien quiera rechazar el consumo de carne por motivos ideológicos es muy libre de hacerlo. Pero por favor, no en nombre de los datos, ni del cambio climático, ni mucho menos de la ciencia.

La solución contra el cambio climático no es comprar “verde”, sino comprar menos

He aquí una idea provocadora: el consumo verde –elegir productos y servicios supuestamente menos contaminantes– no servirá para combatir el cambio climático. Sencillamente, hay que consumir menos.

Vaya por delante que esto no es la reinvención de la rueda. Es evidente que a lo largo de este siglo no va a haber menos gente en este planeta, sino más. Y que por lo tanto el consumo va a aumentar. Y que a mayor consumo, mayor producción. Y que a mayor producción, mayor agotamiento de recursos, mayor necesidad de generación de energía, mayor cantidad de basura y mayor contaminación.

De hecho, un reciente documento de Naciones Unidas, titulado Governance of Economic Transition y elaborado como documentación de base para uno de los capítulos del Global Sustainable Development Report 2019, hacía hincapié precisamente en algo de esto: la lucha contra el cambio climático y un crecimiento económico permanente –lo que incluye el consumo– son difícilmente compatibles.

El documento de la ONU subrayaba además un aspecto esencial que a menudo se olvida: parece que hoy se confía todo a las energías verdes como si fueran la bala mágica, pero no lo son. “Por primera vez en la historia humana, las economías se están desplazando hacia fuentes de energía que son energéticamente menos eficientes, por lo que la producción de energía utilizable requerirá más, y no menos, esfuerzo de las sociedades para alimentar las actividades humanas, básicas o no”, dice el documento.

Contenedores de reciclaje. Imagen de pixabay.

Contenedores de reciclaje. Imagen de pixabay.

Esta llamada de atención sobre la necesidad de reducir el consumo nos llega ahora nuevamente por medio de la experta en consumo de la Universidad de Arizona Sabrina Helm, primera autora de un nuevo estudio que enfrenta la postura de consumir verde con la de consumir menos, y en especial en el contexto de la generación de consumidores más jóvenes, los millennials.

“Hay pruebas de que existen materialistas verdes”, dice Helm. “Si puedes comprar productos medioambientalmente responsables, aún puedes vivir con tus valores materialistas. Estás comprando cosas nuevas, y eso encaja en nuestro patrón mayoritario de la cultura de consumo, mientras que reducir el consumo es algo más novedoso y probablemente más importante desde una perspectiva de sostenibilidad”.

Y sin embargo, es difícil que la idea de reducir el consumo llegue a calar, dado que se trata de algo impopular y enormemente polémico. Por varias razones.

La primera. Quienes ya tenemos algunos años recordamos la época en que a nuestro alrededor aún muchos no habían oído hablar del cambio climático, y quienes sí lo habían hecho solían pensar que era una ficción inventada por algún lobby anticapitalista. Hoy las tornas han cambiado considerablemente: es difícil encontrar a alguien que no sepa qué es el cambio climático, y la inmensa mayoría de la población ha aceptado esta realidad científica. Según una encuesta reciente, incluso en EEUU, el país occidental con una mayor proporción de negacionistas del cambio climático –y gobernado por un presidente negacionista–, esta postura apenas llega al 13% de la población.

Pero curiosamente, esta popularización del cambio climático ha coincidido –si hay una relación de causa y efecto, es algo que deberán investigar los expertos– con el momento en que la industria se ha sumado a la idea, convirtiéndola en una nueva oportunidad de negocio: es la industria verde contra el cambio climático. Desde la panadería de la esquina hasta las grandes corporaciones, el producto verde se ha convertido en un gancho publicitario. Pero tanto a la panadería de la esquina como a las grandes corporaciones les interesa que sigamos consumiendo más, y cuanto más mejor, por lo que la idea de reducir el consumo no va a ser algo que vayamos a ver enormemente promocionado por la industria.

La segunda razón estriba en que la idea de reducir el consumo atenta directamente contra uno de los pilares del ambientalismo actual: el reciclaje. Evidentemente, puestos a desechar cosas, es mejor desecharlas bien –reciclar– que mal –no hacerlo–. Pero mejor que tirar las cosas, bien o mal, es no tirarlas: reutilizar y reparar. Hoy existe toda una industria del reciclaje que vive de nuestra basura, y a la que evidentemente le interesa que sigamos tirando, lo que implica que sigamos consumiendo, para que luego además compremos los productos reciclados. Así que tampoco parece que la industria del reciclaje vaya a sumarse con entusiasmo a la idea de reducir el consumo.

La tercera razón atenta contra uno de los tópicos relativos al cambio climático, y entronca con el estudio de Helm y sus colaboradores. Hemos aceptado la idea de que las generaciones más jóvenes, los millennials, son la punta de lanza en la lucha contra el cambio climático, y que su estilo de vida más verde justifica que culpabilicen a la generación de sus padres del desastre que les han dejado. Solo que no parece ser así: como sugieren tanto Helm como otros expertos, los más jóvenes no son menos consumistas que sus padres, sino más. Los millennials “están destinados a ser los mayores gastadores de la nación”, decía un reciente artículo en Forbes relativo a EEUU. Es el materialismo verde del que habla Helm, que tranquiliza la conciencia mientras permite mantener el tren de consumo. Pero que no es la solución contra el cambio climático.

En especial, los más jóvenes son fervientes consumistas tecnológicos. Alguien los ha llamado “vampiros energéticos”, ya que constantemente necesitan energía para recargar sus dispositivos. Y este excesivo consumismo tecnológico también agrava el cambio climático; incluso aunque uno recargara su móvil solo con sus propios paneles solares, la energía necesaria para mantener todas las infraestructuras, redes, servidores, centros de datos y demás sistemas es hoy tan inmensa que la tecnología digital es responsable del 4% de las emisiones globales de gases de efecto invernadero, el doble que la aviación comercial, y crece más deprisa que esta. Pero no parece que la propuesta de cambiar de móvil con menos frecuencia y de utilizarlo menos vaya a ser muy popular.

En resumen, las ciencias puras ya han hecho su trabajo, mostrar al mundo que el cambio climático es real. Sobre qué y cómo debe hacerse para atajarlo, aún habrá mucho que decir, y este es un territorio en el que los enfoques de ciencias mixtas como el de Helm tienen mucho que aportar, especialmente para derribar dogmas, tópicos e ideas preconcebidas. Pero no parece que ideas revolucionarias como la de reducir el consumo vayan a abrirse camino fácilmente.

Una última cosa: después de todo lo anterior habrá quien se quede con el mensaje de que, en cualquier caso, siempre será mejor para el medio ambiente y contra el cambio climático consumir productos verdes. Pero como ya han señalado diversos estudios, esto tampoco es siempre así (más detalles en este reportaje); se trata de otro más de los falsos dogmas a rebatir en estos difíciles tiempos en los que incluso el cambio climático se ha convertido en un buen negocio.

El uso de la violencia no reduce el apoyo a los grupos violentos, pero sí a los no violentos

Soy perfectamente consciente de que el titular que cubre estas líneas puede resultar algo confuso e incluso trabalingüístico. Pero con la que está cayendo hoy, y siendo quizá una de las pocas personas de este país que no van a opinar sobre el tema, en cambio me ha llamado la atención encontrarme justo en estos momentos con este bonito estudio, cortesía de tres investigadores de las universidades de Carolina del Sur, Stanford (California) y Toronto.

Y cuya conclusión es exactamente la que resume el título: cuando un grupo político o ideológico del que se espera un comportamiento no violento se enzarza en altercados violentos, se reduce su apoyo popular. Sin embargo y al contrario, la conducta violenta no menoscaba el apoyo popular hacia aquellos de los que ya se supone que son violentos. Lo cual, obviamente, da mucho que pensar.

Imagen de US Marine Corps.

Imagen de US Marine Corps.

Para su estudio, publicado en la revista Socius: Sociological Research for a Dynamic World, los sociólogos Brent Simpson, Robb Willer y Matthew Feinberg han reclutado a un grupo de 800 voluntarios y les han sometido a un experimento consistente en responder a un test después de leer distintas versiones modificadas de artículos de periódico referentes a un mismo suceso: las confrontaciones entre supremacistas blancos y manifestantes contra el racismo en dos lugares de EEUU, Charlottesville (Virginia) y Berkeley (California).

Los investigadores descubren que “el uso de la violencia lleva al público en general a ver a un grupo de protesta como menos razonable, una percepción que reduce la identificación con el grupo. Esta menor identificación, a su vez, reduce el apoyo público para el grupo violento”. Como consecuencia, prosiguen los autores, la violencia aumenta el apoyo hacia los grupos que se oponen al grupo violento.

Lo anterior podría parecer más o menos esperable si uno piensa en esos grupos violentos como aquellos de los que habitualmente no se espera otra cosa que violencia, como los supremacistas.

Lo curioso es que, según descubre el estudio, en realidad no es así como funciona: los actos de violencia por parte de los grupos antirracistas erosionan el apoyo hacia ellos, aumentando la simpatía hacia los supremacistas, mientras que la violencia de estos no afecta a su apoyo, “quizá porque el público ya percibe estos grupos como muy poco razonables y se identifica con ellos a bajos niveles”, escriben los autores.

Resultados curiosos, y de los que se podrían extraer varias enseñanzas. No todas ellas buenas. Y mejor lo dejamos ahí.

Los Nobel vuelven a premiar ciencia de los 90

En este mundo en que todo avanza tan deprisa, incluida la ciencia, hay algo que no: los premios científicos más importantes del mundo.

Por supuesto, no hay nada que objetar al hecho de que los Nobel se concedan del modo y manera que a quienes los conceden y los pagan les venga en su kungliga gana (creo que así es como se dice “real” en sueco). Solo faltaría. Pero sí al hecho de que digan hacerlo basándose en lo que Alfred Nobel dejó dicho en su testamento, en el que instituyó los premios, ya que no es exactamente así: el padre de la dinamita y la gelignita quiso que sus distinciones se otorgaran a los hallazgos científicos más importantes del año precedente.

Es cierto que Nobel, aunque químico, era de espíritu más inventor que científico, y que la mentalidad del inventor atisba a un horizonte mucho más corto que la del científico. Pero entre premiar la ciencia del año precedente y premiar la ciencia del siglo precedente continúa abriéndose un abismo que podría visitarse con mayor frecuencia, como sí hacen otros premios, véanse los Breakthrough.

Imagen de Wikipedia.

Imagen de Wikipedia.

Tomemos como ejemplo el Premio Nobel de Química 2019, anunciado hoy y concedido a John B. Goodenough (por supuesto, en serio), a M. Stanley Whittingham y a Akira Yoshino por el desarrollo de las baterías de ion litio. Es evidente que el trabajo de estos investigadores (y de otros más que, como siempre, se quedan sin premio, ya que en el Nobel solo caben tres) merece todos los premios que a uno se le puedan ocurrir. Sin él ni siquiera podría estar escribiendo estas líneas, ya que las baterías de litio iónico son el forraje de nuestros dispositivos electrónicos. Y ahora, hasta de los coches eléctricos.

Pero ya lo eran también hace diez años, hace veinte y casi treinta. La batería de iones de litio fue investigada en los 70, desarrollada en los 80 y comercializada en los 90. Y aunque los expertos dicen que a estas pilas aún les queda recorrido, ya que por el momento aún no existe nada mejor a escala industrial, también dicen que va siendo hora de inventar algo mejor, con más autonomía y de carga más rápida. Algunos discuten si las baterías de iones de litio ya son tecnología obsoleta. Incluso el propio Goodenough ha creado en los últimos años una nueva batería de estado sólido que asegura supera a la de ion litio en prestaciones. Quizá hoy le ha sorprendido recibir un premio que le llega a los 97 años de edad, por trabajos que hizo hace cuatro décadas.

Un caso similar es el del Nobel de Fisiología o Medicina, que este año ha sido para William G. Kaelin Jr., Peter J. Ratcliffe y Gregg L. Semenza. De forma independiente, los trabajos de los tres consiguieron desentrañar los mecanismos biológicos por los que el organismo detecta los niveles de oxígeno y reacciona a ellos: células especializadas en el riñón son capaces de sentir la carencia de oxígeno y promover la síntesis de la hormona eritropoyetina, que estimula la fabricación de eritrocitos (los glóbulos rojos de la sangre). Esto es lo que ocurre, por ejemplo, en las personas que viven a grandes altitudes, donde el oxígeno es más escaso. Los trabajos de los tres investigadores, sobre todo los de Kaelin, descubrieron además cómo ciertos tumores son capaces de hackear este mecanismo para promover la creación de vasos sanguíneos que aporten nutrientes al tumor.

Como suele ocurrir en biomedicina, las aplicaciones de esta ciencia básica llegan a un plazo mucho más largo, si es que llegan. Sobre el cáncer, es una incógnita. Actualmente los fármacos que interfieren en este proceso se ensayan contra enfermedades como las anemias. En resumen, se trata también de ciencia de los 90, que al borde de la tercera década del siglo XXI aún no ha demostrado su posible utilidad clínica (esto último va por el hecho de que suele esgrimirse el argumento de las aplicaciones sobradamente demostradas, como en el caso de las baterías de litio, para justificar por qué los descubridores del sistema de edición genómica CRISPR, entre los cuales está el español Francis Mojica, aún no han recibido un Nobel).

Y una vez más, también de ciencia de los 90 va este año el Nobel de Física. En esta edición se ha hecho un curioso arreglo que, si de algo da la impresión, es de que en el comité había opiniones discrepantes. Aunque es frecuente que el premio se reparta en dos mitades, y que una de ellas a su vez se subdivida entre dos investigadores (respetando la regla del máximo de tres), lo más habitual en estos casos es que se trate de investigaciones relacionadas entre sí. Este no es el caso: lo que liga las investigaciones de los tres investigadores premiados es, dijo el comité, “el universo”. Dado que el universo es todo lo existente, no es precisar demasiado.

La primera de las mitades ha ido para James Peebles, cuyo nombre suena más, al menos para quienes no somos físicos, como uno de los científicos que elaboraron la teoría sobre la radiación cósmica de fondo, una radiación fósil (desde nuestra perspectiva temporal) del Big Bang que luego las sondas espaciales WMAP de la NASA y Planck de la ESA se encargaron de estudiar.

Lo curioso es que, para describir en conjunto las aportaciones de Peebles sobre la materia oscura, la energía oscura y otros campos, el comité Nobel le ha premiado “por sus descubrimientos teóricos en cosmología física”. Lo cual nos recuerda algo: ¿no habíamos quedado en que el Nobel no se otorga a descubrimientos teóricos, y que, por ejemplo, por ello a Einstein se le concedió por el efecto fotoeléctrico y no por la relatividad? ¿Y que por ello a Stephen Hawking nunca se le dio? ¿No habíamos quedado en que debía tratarse de descubrimientos sobradamente demostrados? ¿Y la materia oscura?

Así, el premio para Peebles queda en realidad más bien como uno de esos Nobel que se conceden como el Óscar a toda una carrera. En cambio, más concreta es la otra mitad, repartida entre Michel Mayor y Didier Queloz por… no, nada de cosmología, sino por el descubrimiento del primer exoplaneta en torno a una estrella similar al Sol. No fue el primer exoplaneta, pero el método de velocidad radial puesto en práctica por Mayor y Queloz es uno de los que después han permitido hallar muchos más planetas extrasolares. En concreto, el premio llega más de 4.000 exoplanetas después, por un trabajo publicado en… 1995. Y por cierto, Mayor y Queloz ya recibieron el Premio Fronteras del Conocimiento de la Fundación BBVA en 2012, hace siete años.

Con lo fácil que lo habría tenido el comité Nobel este año premiando a los responsables de la primera foto de un agujero negro, como han hecho los premios Breakthrough Claro que fueron 347 los investigadores premiados por los Breakthrough. En el caso del Nobel, 344 de ellos se habrían quedado con las ganas.

Cuidado con la idea de la obsolescencia programada, y con el negocio en torno a ella

¿Quién no ha dicho alguna vez eso de “hoy las cosas ya no duran como antes”? Yo lo he dicho y, es más, pienso que hoy algunas cosas ya no duran como antes. Pero cuidado: del hecho, si es que lo es*, de que hoy las cosas ya no duren como antes, a tragarnos sin más la idea de que existe una estrategia oculta y generalizada en la industria basada en fabricar deliberadamente cosas que se autodestruyen, y de que existen por ahí ciertos beatíficos ángeles salvadores (amenazados de muerte por ello) para quienes en realidad lo de menos es vender sus propios productos, ya que les basta con vivir de las hierbas que recogen en el campo, sino que les mueve sobre todo su incontenible pasión por el bien, la justicia y la salvación del planeta y la humanidad, hay un abismo.

Y antes de saltar ese abismo alegremente, por lo menos informémonos.

Vaya por delante que, como es evidente, no soy un experto en márketing, ni en industria, ni en mercado, ni en economía. Así como en temas directamente científicos procuro aportar aquí la visión de quien tiene ya muchas horas de vuelo en ello, en cambio no puedo ni jamás trataría de alzarme como una voz autorizada en esto de la obsolescencia programada. Pero como exinvestigador científico, periodista de ciencia, y por tanto aficionado a los hechos, cuando una teoría de la conspiración comienza a convencer a todo el mundo a mi alrededor, y cuando además hay claramente quienes basan su propia estrategia de negocio en fomentar esta teoría de la conspiración, uno no puede menos que preguntarse qué hay de cierto en todo ello y buscar las fuentes de quienes están más informados que uno. Cosa que invito a todos a hacer por medio de las siguientes líneas.

Comencemos, en primer lugar, por el típico tópico que inicia y anima todos los reportajes, opiniones, discusiones y charlas de bar sobre la obsolescencia programada: la famosa bombilla del parque de bomberos de California que lleva luciendo casi sin interrupción desde 1901, y que tiene su propia web con webcam. Si una bombilla puede lucir durante más de un siglo, ¿por qué nos venden basura que se funde a las primeras de cambio?, se preguntan muchos, y allá que vamos a por las antorchas y los tridentes.

Sin embargo, cuidado, hay algún matiz más que relevante. Los estudios sobre la bombilla de California –fabricada en Ohio– han determinado que su filamento es de carbono, no de tungsteno o wolframio (por cierto, el único elemento químico de la tabla periódica aislado en España, por los hermanos Delhuyar en 1783), ya que este material no se convertiría en el estándar hasta comienzos del siglo XX. Y que es ocho veces más grueso de lo normal. Obviamente, a mayor grosor, mayor durabilidad; la bombilla de California podrá estropearse, pero jamás va a fundirse, salvo quizá si le cae un rayo.

La bombilla centenaria en Livermore, California. Imagen de LPS.1 / Wikipedia.

La bombilla centenaria en Livermore, California. Imagen de LPS.1 / Wikipedia.

No hay que saber nada de física, sino simplemente haber utilizado alguna vez un calefactor o un hornillo, para saber que si se aplica electricidad a una barra de metal, se pone al rojo. Pero eso sí: un calefactor o un hornillo no alumbran, y no serían de ningún modo una opción energéticamente eficiente para alumbrarse. Y tampoco la bombilla de California alumbra, ya que luce con una potencia de 4 vatios, con un brillo similar a las luces quitamiedos que ponemos a los niños por la noche. Así que, lo que se dice un producto modelo, no es: a la pregunta de por qué no nos vendieron a todos bombillas con filamentos ocho veces más gruesos, la respuesta es que los filamentos más gruesos desperdician más energía alumbrando menos. Precisamente las bombillas tradicionales fueron víctimas de su ineficiencia energética.

Pero sí, es cien por cien cierto que existió una conspiración de los grandes fabricantes de bombillas para ponerse de acuerdo en hacer productos menos duraderos de lo que era tecnológicamente posible. Ocurrió en los años 20, se conoce como el cártel de Phoebus, y en él las empresas acordaron fabricar bombillas con una duración de 1.000 horas, la mitad de lo normal entonces. A cambio, las bombillas serían más luminosas, más eficientes y de mayor calidad. Pero obviamente lo que movía a aquellos empresarios no era el interés del consumidor, sino su propio ánimo de lucro.

Ahora bien: ¿basta esta historia para asumir la generalización de que todos los grandes líderes de todos los sectores industriales conspiran para fabricar productos que se autodestruyen?

Hay por ahí un buen puñado de trabajos periodísticos rigurosos de lectura vivamente recomendable para quienes prefieran no dejarse llevar por la demagogia dominante, al menos no sin antes basar su juicio en hechos informados. En 2016, Adam Hadhazy se preguntaba en la BBC: ¿existe en realidad la obsolescencia programada?

Esta era la respuesta de Hadhazy: “sí, pero con limitaciones”. “En cierto modo, la obsolescencia programada es una consecuencia inevitable de los negocios sostenibles que dan a la gente los productos que la gente quiere. De esta manera, la obsolescencia programada sirve como reflexión de la voraz cultura consumista que las industrias crearon para su beneficio, pero que no crearon ellas solas”, escribía el periodista.

Por su parte, en la web Hackaday, Bob Baddeley escribía: “Toda la teoría de la conspiración se explica cuando consideras que los fabricantes están dando a los consumidores exactamente lo que piden, lo que a menudo compromete el producto de diferentes maneras. Siempre es un toma y daca, y las cosas que hacen a un producto más robusto son las cosas que los consumidores no consideran cuando compran un producto”.

Como ejemplo, Baddeley cita su propia experiencia; él ayudó a desarrollar un producto que lleva una pila de botón no reemplazable. La imposibilidad de cambiar la batería cuando se agota en los smartphones actuales es otro de los tópicos esgrimidos en todo reportaje, documental o charla sobre la obsolescencia programada. Cito a Baddeley:

Las razones que llevaron a esta decisión [de la pila no reemplazable] son esclarecedoras:

  • No conseguimos que a los consumidores les interesara usar el producto durante más tiempo que el que duraba la pila.

  • Incluso si les interesaba, no conseguíamos que compraran el tipo correcto de pila (CR2032).

  • Incluso si lo hacían, no podíamos confiar en ellos para tener la destreza de quitar la tapa y cambiar la pila.

  • Protestaban porque la tapa de la pila hacía que el producto pareciera barato y endeble.

  • Protestaban porque el agua y el polvo entraban con más facilidad.

  • Tristemente, todas estas protestas solo eran posibles entre los usuarios que entendían que su dispositivo de comunicación sin cable llevaba una pila.

En resumen, el mensaje es este: la cultura consumista pone el acento en los productos más nuevos, con más prestaciones, la última tecnología y el diseño más actual; y todo ello al precio más barato posible. Pero la durabilidad no es una prioridad. Por lo tanto, los fabricantes buscan producir bienes siempre nuevos, con más prestaciones, la última tecnología y el diseño más actual. Y para que el precio sea lo más barato posible, reducen costes en procesos y materiales. Aunque a causa de ello los productos duren poco. De hecho, si duran poco, mejor para el negocio; de todos modos, piensan, nadie quiere seguir usando un smartphone de hace cinco años.

“Sobre todo, las compañías reaccionan a los gustos del consumidor”, dice en el artículo de Hadhazy la profesora de finanzas y economía de la Universidad de Yale Judith Chevalier. “Creo que existen ocasiones en que las empresas están engañando al consumidor de alguna manera, pero también pienso que hay situaciones en las que yo pondría la culpa en el consumidor”.

Según Hadhazy, “aunque algunos de estos ejemplos de obsolescencia programada son indignantes, es enormemente simplista condenar la práctica como mala. A escala macroeconómica, el rápido recambio de los productos alimenta el crecimiento y crea montones de puestos de trabajo; piensen en el dinero que la gente gana, por ejemplo, fabricando y vendiendo millones de fundas de móviles. Aún más, la introducción continua de nuevos artilugios para conquistar (o reconquistar) la pasta de nuevos y viejos consumidores tenderá a promover la innovación y mejorar la calidad de los productos”.

Incluso Giles Slade, autor del libro Made to Break: Technology and Obsolescence in America, reconoce: “No hay ninguna duda: más gente ha obtenido una mejor calidad de vida como resultado de nuestro modelo de consumo que en ningún otro momento de la historia”. Sin embargo, añade: “Por desgracia, también es responsable del calentamiento global y los residuos tóxicos”.

Por lo tanto, todo ser humano que se indigne y proteste por la obsolescencia programada quizá debería hacerse esta pregunta: ¿estoy dispuesto a quedarme con el mismo móvil, el mismo coche o la misma ropa durante años y años, cuando mi ropa ha pasado de moda, mi coche no tiene Bluetooth ni pantallas ni contesta cuando le hablo, y cuando todo el mundo tiene móviles más nuevos que el mío? (Y por cierto, todo humano medioambientalmente responsable también debería saber que actualmente el uso de los móviles en todo el mundo genera 125 millones de toneladas de CO2 al año).

Y también por cierto, rescato aquí el asterisco que dejé más arriba* respecto a las cosas de ahora que duran menos: el artículo de Hadhazy cita también el dato de que actualmente la edad media del coche que circula por las carreteras de EEUU es de 11,4 años, mientras que en 1969 era de 5,1 años. ¿Duran más los coches hoy? ¿Se cambian menos? ¿Ha bajado la fiebre del coche nuevo respecto a otros tiempos? ¿No hay dinero para cambiar de coche? No tengo la menor idea de cuál es la respuesta, pero el dato es interesante. Ya que al menos no parece apoyar la idea generalizada de que hoy todo dura menos.

A todo lo anterior, Hadhazy cita una excepción: la tecnología de lujo. Quien se compra un Rolex espera que le dure toda su vida y hasta la de sus nietos. Se supone que un Rolex está bien hecho, con procesos y materiales de calidad suprema. Y es, por tanto, más caro. Al ser una minoría quienes lo compran, seguirá siendo caro. Pero, sigue el artículo de la BBC:

“Con el paso de los años, las características de una versión de lujo de un producto pueden abrirse camino al mercado de masas a medida que su producción se abarata y los consumidores esperan esos beneficios. Pocos discutirían que la mayor disponibilidad de dispositivos de seguridad como los airbags en los coches, que originalmente solo se encontraban en los modelos más caros, ha sido un avance positivo. Así que, en su reconocido propio interés, la competición de un capitalismo influido por la obsolescencia programada puede también favorecer el interés de los consumidores”.

Todo lo anterior nos lleva ahora a la segunda parte: el negocio basado en fomentar la teoría de la conspiración de la obsolescencia programada. Cuando uno observa a su alrededor que numerosos medios están poniendo la alfombra roja a determinados personajes que se presentan a sí mismos como salvadores de la humanidad y del planeta contra la obsolescencia programada y como probables víctimas inminentes de un sicario o un francotirador a sueldo de los poderosos oligopolios, pero que en el fondo tales personajes no están haciendo otra cosa que publicitar y promocionar su propio negocio con evidente ánimo de lucro, uno no puede sino oler un cierto tufillo a chamusquina.

No voy a citar aquí nombres de personas o productos, dado que no he investigado sobre ellos personalmente. Pero a quien en estos días escuche una nueva oleada, recurrente cada cierto tiempo, sobre las bondades del español inventor de la bombilla eterna y paladín contra la malvada industria, le recomiendo que como mínimo lea este artículo de Rocío P. Benavente para Teknautas en El Confidencial o este análisis del producto en cuestión de Michel Silva en la web iluminaciondeled.com, junto con, quizá, esta nota de prensa. Y después, fórmense su propia opinión, pero al menos después de haber escuchado a las dos partes.

¿Por qué olvidamos los sueños? ¿Y por qué en los sueños olvidamos la vida?

Esta noche no he soñado nada, decimos a veces, y esto es aceptable si comprendemos lo que significa: que no recordemos haber soñado no significa que no lo hayamos hecho. Soñamos, sobre todo en la fase REM (de Rapid Eye Movement, que algunos traducen como MOR, Movimiento Ocular Rápido, pensando quizá que eso de la univocidad del lenguaje científico está bien, siempre que no se imponga por encima del nacionalismo lingüístico). Lo que ocurre es que en muchos casos no recordamos lo que soñamos, y despertamos con la impresión de haber pasado la noche en un estado cuasicomatoso de actividad cerebral nula.

Pero esto último no ocurre. Mientras dormimos, nuestro cerebro hace de todo menos descansar; más bien se va de juerga por sus propios mundos sin que nosotros lo controlemos. Y aunque difícilmente hacen falta motivos para justificar que el cerebro humano es uno de los campos de investigación más increíblemente asombrosos de la ciencia actual –suele decirse que este XXI es el siglo del cerebro–, en especial el universo del sueño y de los sueños es uno de sus misterios más extraños.

Sobre los sueños, es mucho lo que falta por comprender. Ni siquiera aún se entiende del todo por qué soñamos, ni por qué tenemos la necesidad de hacerlo. Pero hay una pregunta que todos nos hemos hecho alguna vez: ¿por qué solemos olvidar la mayoría de los sueños?

La ciencia dice que también sueñan quienes nunca lo recuerdan, y que lo recordarán si se despiertan en el momento adecuado. Tienden a recordarse con más facilidad los sueños que tenemos justo antes de despertarnos, y dado que soñamos más en la fase REM, si despertamos en ese momento tendremos más probabilidad de recordar los sueños inmediatamente anteriores. Esto significa además que quienes tienen la suerte de dormir a pierna suelta hasta que se despiertan por sí solos, si es que hay algún afortunado, tenderán menos a recordar sus sueños, ya que despertarán con más probabilidad al terminar un ciclo completo de sueño y no durante la fase REM.

Imagen de pxhere.

Imagen de pxhere.

En los últimos años, los neurocientíficos han encontrado una posible explicación de por qué tendemos a olvidar los sueños (al menos el 95% de ellos, según un dato): en resumen, se trata de que durante la fase REM el almacenamiento de memoria a largo plazo está desactivado, como si nos funcionara la memoria RAM pero no la escritura en el disco duro. Cuando despertamos, el cerebro tarda un par de minutos en poner en marcha este mecanismo. Si durante ese par de minutos tratamos de retener ese recuerdo fugaz volviendo a reproducir el sueño en nuestra mente, podremos fijarlo y recordarlo después. De lo contrario, aunque en el mismo momento de despertarnos recordemos el sueño, lo olvidaremos.

Más concretamente, los científicos han descubierto que así como en la corteza cerebral despierta hay altos niveles de dos neurotransmisores, acetilcolina y norepinefrina (o noradrenalina), ambos se desploman cuando nos dormimos. Sin embargo, al entrar en la fase REM, la acetilcolina vuelve a sus niveles de vigilia, lo que provoca un estado de activación similar a cuando estamos despiertos, mientras que por el contrario la norepinefrina permanece baja, y esto nos impide fijar recuerdos en la memoria.

Pero naturalmente, como siempre en ciencia, esto no zanja la cuestión. El balance entre estos dos neurotransmisores durante el sueño REM puede ser una parte de la explicación, pero no tiene por qué ser la explicación completa. De hecho, ahora un nuevo estudio publicado en Science aporta otro mecanismo que puede contribuir a la facilidad con la que olvidamos los sueños.

Los investigadores, de Japón y EEUU, han detectado que un conjunto de neuronas de una región del cerebro llamada hipotálamo y que producen una sustancia denominada Hormona Concentradora de Melanina (MCH) controlan la escritura de recuerdos en el hipocampo, un área del cerebro implicada en la memoria. En concreto, los científicos han visto que la activación de estas neuronas inhibe la formación de recuerdos. Estudios anteriores ya habían observado que estas neuronas están especialmente activas durante el sueño REM. La conclusión del nuevo estudio es que la activación de estas neuronas olvidadoras durante la fase REM impide que recordemos los sueños.

Según el coautor del estudio Thomas Kilduff, “dado que los sueños ocurren sobre todo durante el sueño REM, la fase en que las neuronas MCH se encienden, la activación de estas células puede impedir que el contenido de un sueño se almacene en el hipocampo; como consecuencia, el sueño se olvida rápidamente”.

Pero incluso si llegara a comprenderse por completo cómo olvidamos esa especie de segunda vida que vivimos en los sueños, aún queda también comprender cómo hacemos el recorrido inverso: olvidar nuestra primera vida durante la segunda. En un artículo publicado hace años en la revista Scientific American, el neurocientífico Christof Koch –conocido por sus trabajos sobre las bases neuronales de la consciencia– escribía lo siguiente:

La consciencia del sueño no es la misma que la consciencia de la vigilia. En su mayor parte somos incapaces de hacer introspección, de preguntarnos por nuestra insólita capacidad de volar o de encontrarnos con alguien muerto hace mucho tiempo.

Dicho de otro modo: en el sueño hemos olvidado que ni nosotros ni ningún otro ser humano puede volar. En el sueño hemos olvidado que esa persona lleva muerta mucho tiempo. Y podemos extenderlo a otros aspectos de nuestra vida en los que seguro que todos reconoceremos algunos de nuestros sueños: olvidamos que nuestra pareja es nuestra pareja, o que nuestro trabajo es nuestro trabajo, o incluso que nuestros hijos, padres o hermanos son nuestros hijos, padres o hermanos.

Naturalmente, alguno de esos psicólogos de cromo de Phoskitos diría que en realidad nuestra mente está liberando el deseo reprimido inconsciente de librarnos de nuestra pareja, nuestro trabajo o nuestros hijos, padres o hermanos. Pero ante todo lo que suene a freudiano, hay que colgarse del cuello la ristra de ajos: como ya he contado aquí, Freud no era un científico, sino solo un tipo inteligente e innovador que hacía conjeturas sin demostrarlas, porque no podían demostrarse (y algunos dirán incluso que lo de “inteligente e innovador” es muy generoso, ya que muchos científicos le consideran simplemente un charlatán).

Pero en fin, el hecho de que olvidemos todas esas cosas sobre nosotros mismos mientras soñamos es algo sorprendente, teniendo en cuenta que los sueños también se alimentan de nuestra memoria; al parecer, solo de trozos incompletos de memoria, con el resultado de que el yo del sueño en muchos casos es distinto del yo normal. Y esto equivale a decir que, en cierto modo, a veces durante los sueños olvidamos quiénes somos en realidad.

Raro, ¿verdad? Y por desgracia, imagino que difícil de esclarecer, porque a ver a quién se le ocurre un diseño experimental para estudiar esto.