Ciencias mixtas Ciencias mixtas

Los secretos de las ciencias para
los que también son de letras

Archivo de la categoría ‘química’

Por qué no comemos el moho, si tiene penicilina (los errores de la quimiofobia)

Cuando al pan le crece moho, lo tiramos. No comemos pan mohoso porque, además de su aspecto francamente nauseabundo, sabemos que puede ser dañino para nosotros. Pero paradójicamente, el moho produce el fármaco más valioso de toda la historia de la medicina, el principal responsable de que vivamos muchos más años que nuestros tatarabuelos y de que nuestros hijos, en la inmensa mayoría de los casos, puedan llegar a adultos.

No, no es ninguno de los remedios de la medicina tradicional china, sino la penicilina; que, por otra parte, el médico nos receta en pastillas fabricadas industrialmente por una compañía farmacéutica, en lugar de prescribirnos que preparemos un bocadillo y esperemos seis meses para comérnoslo.

Pan mohoso. Imagen de Henry Mühlpfordt / Wikipedia.

Pan mohoso. Imagen de Henry Mühlpfordt / Wikipedia.

¿Cómo pueden entenderse todos estos sinsentidos? Es decir, si –como todo el mundo sabe– lo bueno y sano es lo natural, todo lo natural y nada más que lo natural, ¿cómo puede hacernos daño comer un organismo que produce algo tan beneficioso? ¿Deberíamos comernos el pan mohoso en lugar de tirarlo? ¿Penicilina gratis? ¿Y cómo puede ser natural, ya no digamos bueno, algo que se toma en pastillas, si –como todo el mundo sabe– las compañías farmacéuticas y sus sicarios, los médicos, viven de vendernos química para hacernos enfermar y que así consumamos más química?

No, no es una caricatura. En el planeta Tierra del siglo XXI hay infinidad de seres humanos que piensan de este modo. No hay más que encender el televisor en un canal al azar (no importa cuándo, todos estarán en el intermedio) para escuchar, en casi cualquier anuncio de productos de alimentación o incluso de cuidado personal, una invariable coletilla: “sin conservantes”; ignorando que los conservantes no estropean los alimentos ni los hacen tóxicos, sino que al contrario, los preservan en su estado óptimo y aumentan la seguridad alimentaria, por lo que los hacen más sanos. Y por lo que, como también conté aquí, una corriente entre los científicos de la alimentación está comenzando a oponerse a esta tonta moda. Pero cuando tantas marcas se han lanzado en plancha a firmar sus anuncios con la coletilla, es porque saben que mejora sus opciones de venta, lo cual es suficiente evidencia para calcular que el conocimiento informado no es lo más viral hoy en día.

Ayer me ocupé de desmontar el peligroso bulo de que el consumo de ciertas frutas y hortalizas basta para mantenerse a salvo de la gripe, difundido en internet por los (más bien poco, al parecer) responsables de un mercado español. Como ya expliqué, teniendo en cuenta que cada año esta enfermedad causa posiblemente más de medio millón de muertes en todo el mundo, y que se ceba sobre todo en los más débiles, es un problema que permite cero frivolidades; especialmente cuando estas se presentan con el caradurismo de aprovechar el tirón de una campaña de vacunación en la que una legión de profesionales comprometen su esfuerzo en el empeño de salvar vidas.

Evidentemente y aunque no fuera de forma explícita, deliberada o no, lo publicado por el mercado apelaba a la quimiofobia y al pensamiento New Age, a la idea errónea de que existen dos mundos separados, el natural y el químico, e incluso a aquella cumbre del pensamiento plano e intoxicado coronada por esa suma sacerdotisa de las pseudociencias llamada Gwyneth Paltrow: “nada que sea natural puede ser malo para ti”.

Creo que, en todo este batiburrillo de superstición y desinformación, el ejemplo de la penicilina y algún otro son útiles para derramar algo de luz ante los pasos de quien aún esté dispuesto a reconducirse hacia la senda del argumento racional y el conocimiento científico, porque estos casos ilustran perfectamente todos los puntos en los que el pensamiento quimiófobo anda tan desnortado.

Para comenzar, aquello de la gran botica de la madre naturaleza, tan sabia ella, es una idea muy bonita, pero sin ningún fundamento. Eso sí, entronca bastante con la idea del diseño inteligente defendida por los creacionistas bíblicos (concretamente con lo que en el mundo creacionista se conoce como “creación especial”): si la naturaleza hubiera sido creada al servicio del ser humano tal cual es en su forma actual, sería un detalle casi obligado que el responsable de todo ello hubiera provisto entre sus recursos los medios para curarnos de nuestros males.

Al menos, quien siga pensando así en el siglo XXI debería saber que ni siquiera Santo Tomás de Aquino en el siglo XIII entendía ya la naturaleza de esta manera (era aristotélico, y por tanto creía en una noción primitiva de evolución). Hoy sabemos de sobra que solo somos una parte más de la naturaleza, que no es sabia ni tonta. Solo es química, toda ella. Y en consecuencia, hace lo que hace la química: reaccionar.

Cuando se ponen en contacto unos compuestos químicos con otros, suelen reaccionar. Como la Tierra es un ecosistema cerrado, los nutrientes que necesitamos y otros compuestos que pueden beneficiarnos se encuentran en otros organismos. Pero también otros compuestos que nos matan. Para la naturaleza, la diferencia entre ambos casos es solo una reacción química distinta, como mejorar la fosforilación oxidativa de la mitocondria o detenerla. Incluso una misma sustancia puede beneficiarnos o matarnos dependiendo de la dosis. El mejor ejemplo: el agua. Sí, también se puede morir por beber demasiada agua.

De ello se deduce que realmente no existen plantas medicinales, sino plantas con ciertos compuestos químicos medicinales. Dado que la naturaleza no ha sido diseñada, los compuestos beneficiosos o perjudiciales para nosotros no están organizados en dos equipos distintos de plantas, las buenas y las malas. Lo cual implica que cualquier alimento natural que consumimos habitualmente podría contener también toxinas dañinas para nosotros.

Y de hecho, ocurre. El caso más conocido es la amigdalina, un compuesto presente en miles de plantas pero sobre todo en las pepitas de manzanas y peras, las almendras amargas y los huesos de melocotones, cerezas, ciruelas, albaricoques, nectarinas y otras frutas. Tras su ingestión, o también cuando entra en contacto con las enzimas de la pulpa, la amigdalina se transforma nada menos que en cianuro. Y mientras que las semillas de manzanas y peras son pequeñas, por lo que haría falta comer cientos para notar algún efecto, en cambio unos pocos huesos de fruta pueden ser letales.

Un hueso de melocotón abierto. La amigdalina está en la semilla. Imagen de An.ha / Wikipedia.

Un hueso de melocotón abierto. La amigdalina está en la semilla. Imagen de An.ha / Wikipedia.

Un estudio de 2013 calculó que 30 huesos de albaricoque o 50 almendras amargas son letales para un adulto. Pero el año pasado un británico fue internado de urgencia tras ingerir solo tres huesos de cereza, y un estadounidense siguió el mismo camino tras comprar en una boutique de alimentos naturales una bolsa de semillas secas de albaricoque y comerse unas 40, antes de leer en el dorso que no debían consumirse más de dos o tres al día por riesgo de envenenamiento agudo. Eso sí, el producto estaba etiquetado como superalimento orgánico.

Otra toxina es la solanina, presente en patatas, tomates o berenjenas. Las cantidades que llevan no suelen ser nocivas, pero sí pueden serlo en piezas estropeadas, sobre todo en las patatas que empiezan a volverse verdes. Este es también el motivo por el que conviene cortar los brotes (ojos), ya que son sitios metabólicamente activos donde también se produce la toxina. Aunque el envenenamiento por solanina no suele ser mortal, hay casos documentados de intoxicaciones masivas en colegios por haber aprovechado una partida de patatas del año anterior que debería haberse desechado.

Las patatas podridas contienen solanina. Imagen de pixabay.

Las patatas podridas contienen solanina. Imagen de pixabay.

También puede suceder lo contrario, y es que una especie no comestible contenga un compuesto beneficioso. Así llegamos a la penicilina. Por supuesto que comer pan mohoso no es en absoluto una buena idea, aunque según los expertos los típicos mohos blancos o verdeazulados no son los peores, sino los marrones o negros, que suelen contener toxinas peligrosas. Pero la diferencia entre un moho inofensivo o beneficioso y otro dañino es tan escasa como la que separa al Penicillium camemberti y el Penicillium roqueforti, que los comemos en el queso, del Penicillium chrysogenum (antes notatum), que produce penicilina, y de otras especies que producen micotoxinas como la patulina, típica de los mohos en las manzanas podridas.

Así pues, ¿cómo podemos asegurarnos de quedarnos con lo bueno apartando lo malo? La respuesta: aislando los compuestos que nos interesan de los alimentos naturales. Y así nace la farmacología. Pero después, con el progreso de la ciencia, se encuentra la manera de fabricar muchos de estos compuestos a voluntad y en masa sin necesidad de procesar penosamente inmensas cantidades de productos naturales para después tirar todo lo que sobra. Aún más, se encuentra incluso el modo de mejorar estos compuestos de origen natural para acentuar sus propiedades beneficiosas y reducir sus efectos adversos.

Y así tenemos no ya la penicilina, sino un amplio repertorio de antibióticos para distintos usos. Y tenemos la morfina, originalmente extraída de la adormidera. Y la aspirina, o ácido acetilsalicílico, obtenida mediante una reacción que mejora las propiedades de un compuesto extraído del sauce y empleado como remedio durante milenios. Y el paracetamol, encontrado como un producto del propio cuerpo humano, en la orina de pacientes que habían tomado otro medicamento.

Mohos 'Penicillium commune' (oscuro) y 'Penicillium chrysogenum' (claro). Imagen de Convallaria majalis / Wikipedia.

Mohos ‘Penicillium commune’ (oscuro) y ‘Penicillium chrysogenum’ (claro). Imagen de Convallaria majalis / Wikipedia.

Hoy hemos avanzado un paso más, o muchos pasos más. Conocemos la estructura química de los compuestos y de las moléculas con las que interaccionan en el organismo, y gracias a ello pueden diseñarse nuevos fármacos perfeccionados y optimizados como se diseña un coche de carreras, un mueble de Ikea o un nuevo modelo de smartphone. Y esto es, en definitiva, lo que muchos llaman química; la capacidad del ser humano de mejorar las propiedades de las sustancias naturales.

Pero mientras avanzamos nuevos pasos, lamentablemente al mismo tiempo estamos retrocediendo otros. Como ya conté aquí, la moda del “sin conservantes” ha llevado a muchos fabricantes de alimentos a eliminar los nitratos. Pero como estos compuestos son necesarios para evitar que la bacteria Clostridium botulinum crezca en los alimentos y los consumidores mueran de botulismo, los añaden en forma de jugo de apio, un producto natural que les permite pegar en sus productos la etiqueta “sin conservantes”. Los nitratos son exactamente los mismos; con la diferencia de que la cantidad de nitrato purificado es la necesaria y exacta para evitar la contaminación, mientras que en el zumo de apio es variable, lo que pone en riesgo la seguridad de los alimentos.

Esta es verdaderamente la gran paradoja de la naturaleza. No el moho, la manzana o la patata, sino los seres humanos; una especie que renuncia voluntariamente al progreso que tanto le ha costado conseguir… hasta que la química tiene que acudir al rescate para salvarle la vida.

Por qué el Nobel para Mojica es mucho más complicado de lo que parece

Un año más, los Nobel de ciencia se han saldado dejándonos sin premio para Francisco Martínez Mojica, el microbiólogo de la Universidad de Alicante descubridor de los fundamentos que han originado el sistema CRISPR. Para quien aún no lo sepa, resumo brevísimamente que CRISPR es una herramienta molecular de corta-pega de ADN en la que están depositadas las mayores esperanzas para la curación de enfermedades genéticas en las próximas décadas, y que por ello suele presentarse como la gran revolución genética del siglo XXI. O al menos, de este primer tramo.

Como ya expliqué ayer, CRISPR aún no se ha bregado en el campo clínico como para merecer un Nobel de Medicina, pero en cambio sí ha demostrado su enorme potencia en los laboratorios como para merecer un Nobel de Química. Conviene aclarar que estos premios los otorgan comités diferentes de instituciones distintas: el de Fisiología o Medicina depende del Instituto Karolinska, mientras que el de Química es competencia de la Real Academia Sueca de Ciencias (no de la “Academia Sueca”, como suele decirse, ya que esta solo concede el premio de Literatura).

Francisco JM Mojica. Imagen de Roberto Ruiz / Universidad de Alicante.

Francisco JM Mojica. Imagen de Roberto Ruiz / Universidad de Alicante.

Por el momento, deberemos seguir a la espera otro año más. Pero el hecho de que el hallazgo y desarrollo de CRISPR aún no haya sido distinguido con el más lustroso de los premios científicos (aunque no el mejor dotado económicamente) no es una mala noticia; cada año suenan estas seis letras en las apuestas, y hoy lo más natural es confiar en que más tarde o más temprano acabarán saliendo en la papeleta ganadora. La verdadera mala noticia sería que, cuando a CRISPR le salga el billete dorado en la chocolatina, no sea a Mojica a quien le toque.

Ayer dejé caer en el último párrafo que la decisión sobre a quiénes premiar por el hallazgo y desarrollo de CRISPR no es precisamente inmediata. Y esto requiere una explicación. Los Premios Nobel tienen pocas reglas, pero se siguen a rajatabla. Una de ellas dice que cada premio solo pueden compartirlo un máximo de tres científicos o científicas (todavía ellas son minoría), y ayer mencioné que en el caso de CRISPR hay al menos cuatro nombres en liza. Pero en realidad son más de cuatro. Y por anacrónica que resulte hoy en día la idea de que haya tres lobos solitarios trabajando en sus laboratorios del sótano y a quienes se les ocurra lo que no se le ha ocurrido a nadie más en todo el planeta, no está previsto que las normas de los Nobel vayan a cambiar.

Pero entremos en la cuestión de los nombres. Entre todos ellos hay dos que parecen indiscutibles, y ambos son de mujer. La estadounidense Jennifer Doudna y la francesa Emmanuelle Charpentier fueron las primeras en publicar la descripción de CRISPR como herramienta genética, desarrollada y adaptada a partir del descubrimiento del sistema original que en las bacterias actúa como mecanismo de inmunidad contra los virus.

Jennifer Doudna. Imagen de Jussi Puikkonen / KNAW / Wikipedia.

Jennifer Doudna. Imagen de Jussi Puikkonen / KNAW / Wikipedia.

 

Emmanuelle Charpentier. Imagen de Carries mum / Wikipedia.

Emmanuelle Charpentier. Imagen de Carries mum / Wikipedia.

En el tercer nombre es donde surgen las dudas. Mojica, quien primero publicó el hallazgo del sistema original en las bacterias (y le puso la denominación por la que ahora se conoce), es uno de los firmes candidatos. Pero por desgracia, no es el único: hay hasta tres científicos más que podrían optar a rellenar esa terna.

Comencemos por Mojica, el descubridor original del sistema. En realidad hubo otros grupos que casi de forma simultánea llegaron a conclusiones similares; pero dado que él fue el primero en publicarlas, retendría ese derecho a la primicia del descubrimiento. Las cosas comienzan a complicarse cuando avanzamos en la historia de CRISPR.

Después de Mojica, fue el argentino Luciano Marraffini, por entonces en la Universidad Northwestern de Illinois (EEUU), quien primero demostró cómo funciona CRISPR cortando ADN, una función que sería esencial para que Charpentier y Doudna convirtieran una curiosidad de la naturaleza en una herramienta utilizable.

A su vez, Marraffini colaboró con el chino Feng Zhang, del Instituto Broad de Harvard y el MIT (Instituto Tecnológico de Massachussetts), quien demostró por primera vez la utilidad de CRISPR en células no bacterianas, las de los organismos superiores y, en concreto, de los mamíferos.

Luciano Marraffini. Imagen de Sinc.

Luciano Marraffini. Imagen de Sinc.

 

Feng Zhang. Imagen de National Science Foundation.

Feng Zhang. Imagen de National Science Foundation.

El problema es que en ciencia no existe una autoridad que decida quién debe ser considerado el autor oficial de un descubrimiento, y por tanto los comités que conceden los Premios Nobel son muy libres de elegir los ingredientes que más les gusten de esta ensalada de nombres y apartar los demás. Pero ¿según qué criterio?

Un aspecto interesante es que CRISPR es un descubrimiento transformado en tecnología; y, a diferencia de lo que sucede en ciencia, en tecnología sí existe una autoridad que decide quién es su inventor: los organismos de patentes. Doudna y Charpentier poseen las patentes originales del sistema CRISPR, pero las dos investigadoras mantienen una agria disputa con Zhang por la patente de su aplicación en células de mamíferos, que finalmente ha tenido que resolverse en los tribunales.

Según han explicado los expertos en propiedad industrial, la manzana de la discordia es el significado del término “no obvio” aplicado a este caso concreto. La Oficina de Patentes y Marcas de EEUU solo concede una patente de aplicación cuando esta se considera no obvia, por lo que se admite como nueva invención. Cuando Zhang comprobó la utilidad de CRISPR en células de mamíferos (que publicó solo unas semanas antes que sus competidoras), solicitó una patente alegando que esta aplicación no era obvia, y el organismo de patentes aceptó su argumento. Pero poco después la Universidad de California, en representación de Doudna, impugnó la patente de Zhang aduciendo que se trataba de una aplicación obvia. El asunto ha coleado hasta que finalmente el pasado 10 de septiembre un tribunal federal de EEUU ha dictaminado en favor de Zhang.

Así pues, ¿sería capaz el comité Nobel de premiar a Doudna, Charpentier y Mojica, dejando fuera a quien es el poseedor en EEUU (aunque no en Europa) de la patente de aplicación de CRISPR en células humanas?

Pero la cosa aún puede complicarse más. Y es que, si se detienen a contar los nombres mencionados, notarán que todavía falta uno más para llegar a los seis que completan la primera línea de los candidatos al reconocimiento de CRISPR. Se trata del bioquímico lituano Virginijus Šikšnys, de la Universidad de Vilnius, que en 2012 y de forma independiente llegó a los mismos resultados que Doudna y Charpentier, aunque su estudio fue rechazado y terminó publicándose más tarde que el de las dos investigadoras.

Según las reglas habituales, Šikšnys perdió la primicia del descubrimiento. Pero se da la circunstancia de que presentó una solicitud de patente, que fue aprobada, semanas antes de que lo hiciera la Universidad de California, por lo que el lituano podría tumbar la patente de las dos científicas si se lo propusiera.

Virginijus Šikšnys. Imagen de NTNU / Flickr / CC.

Virginijus Šikšnys. Imagen de NTNU / Flickr / CC.

Todo lo cual sitúa a los jurados de los Nobel en un laberinto de difícil salida. Otros premios sin restricción en el número de galardonados han optado por diferentes soluciones: el Breakthrough (el mejor dotado económicamente en biomedicina) distinguió únicamente a Doudna y Charpentier, lo mismo que hizo con sonrojante ridículo nuestro Princesa de Asturias. Por su parte, el premio noruego Kavli reconoció a Doudna, Charpentier y Šikšnys. El más salomónico ha sido el Albany Medical Center Prize, el cuarto mejor dotado del mundo en biomedicina, que solo dejó fuera a Šikšnys, premiando a los otros cinco investigadores.

Pero además de este rompecabezas sin solución aparente, hay otro motivo que quizá podría detraer a los comités Nobel de conceder un premio al hallazgo y desarrollo de CRISPR en un futuro próximo, y es precisamente el vergonzoso espectáculo ofrecido por Doudna, Charpentier y Zhang con sus dentelladas por la carnaza de las patentes. Según se cuenta, ni siquiera las dos investigadoras son ya las grandes amigas que fueron. Los tres crearon sus respectivas empresas para explotar sus tecnologías. Y aunque es incuestionable que el inventor de un método para curar tiene el mismo derecho a vivir de sus hallazgos que quien inventa la rosca para clavar sombrillas, es posible que los jurados de los Nobel no se sientan ahora muy inclinados a premiar a quienes han protagonizado un ejemplo tan poco edificante para la ciencia.

Claro que, aunque no sirva de mucho, desde aquí lanzo una propuesta: ¿qué tal Mojica, Šikšnys y Marraffini?

Por qué Mojica no gana el Nobel de Medicina (pero debería ganar el de Química)

Los fallos de los Premios Nobel son tan imprevisibles como pueden serlo estas cosas. Ni siquiera los profesionales de estas apuestas (no, que yo sepa William Hill y 888 no lo cubren) atinan más de lo que fallan, y si aciertan es gracias a los premios cantados, como los de Física a los descubridores del bosón de Higgs o las ondas gravitacionales. En el fondo, se trata de la decisión de un comité que solo se atiene a sus propios criterios, siempre que encajen en las muy escuetas reglas definidas por Alfred Nobel en su testamento hace más de un siglo.

Pero en general, a lo largo de la trayectoria de los premios el Nobel de Medicina se ha concedido a investigadores que han aportado una contribución esencial de repercusiones probadas en la salud humana, o bien a aquellos que han descubierto mecanismos cruciales del funcionamiento de la biología con clara aplicación a nuestra especie; este segundo enfoque es el que suele omitirse cuando se cita el Premio Nobel de Medicina, olvidando que en realidad es de Fisiología o Medicina.

Francisco Martínez Mojica, en su laboratorio de la Universidad de Alicante. Imagen de Roberto Ruiz / Universidad de Alicante.

Francisco Martínez Mojica, en su laboratorio de la Universidad de Alicante. Imagen de Roberto Ruiz / Universidad de Alicante.

El sistema CRISPR, cuyas bases fundamentales sentó el investigador alicantino (ilicitano, para más señas) Francisco Martínez Mojica, es la herramienta de edición genética –o más llanamente, corrección de genes– más potente, sencilla y precisa jamás inventada. Dado que la terapia génica se configura como uno de los tratamientos estrella de este siglo para cualquier enfermedad que tenga algo que ver con los genes, se vaticina que en las próximas décadas CRISPR podría convertirse en un recurso clínico tan imprescindible como hoy lo son los antibióticos.

Pero ese momento aún no ha llegado. Aunque CRISPR se ha empleado ya para corregir genes humanos en sistemas experimentales (aunque con resultados a veces controvertidos), los ensayos clínicos para llevar a la práctica el poder de este tipex genético aún se resisten; y en cambio, actualmente existen numerosos ensayos con pacientes que están logrando buenos resultados con terapia génica empleando sistemas de la generación anterior.

Así, por el momento no hay una justificación clara para que Mojica y/u otros investigadores implicados en el desarrollo de CRISPR, como la estadounidense Jennifer Doudna y la francesa Emmanuelle Charpentier, reciban un premio en una categoría en la que el sistema todavía no ha demostrado su eficacia. Y dado que CRISPR es una caja de herramientas moleculares creadas a partir de mecanismos de las bacterias, tampoco representa una contribución al conocimiento de la fisiología humana.

En cambio, otro caso diferente es el del Nobel de Química. Esta es una categoría paraguas en la cual entra cualquier cosa relacionada con la química, una ciencia inmensamente amplia. En el campo concreto de la bioquímica, la química de la vida, el ámbito del premio de Química puede solapar con el de Fisiología o Medicina, pero en este caso no prima el criterio de la relevancia del descubrimiento para la salud humana.

Y desde luego, así como CRISPR aún tendrá que batirse en la arena clínica contra otros sistemas más veteranos, en cambio hoy es insustituible en el área de la investigación básica. Miles de científicos en todo el mundo han abandonado otras herramientas más antiguas, salvo casos específicos, para comenzar a utilizar CRISPR en sus experimentos de biología molecular. Basta una simple búsqueda en las bases de datos de publicaciones científicas para comprobar que ya son cerca de 11.000 los estudios en los que de un modo u otro está implicado este sistema. Lo cual es sencillamente impresionante para algo que a comienzos de esta década ni siquiera existía.

La contribución que CRISPR ya ha aportado a infinidad de proyectos de investigación sí justifica un Premio Nobel de Química. Otra cosa es que el comité encargado de la concesión sea capaz de solventar cómo seleccionar a tres ganadores –el límite impuesto por las reglas del premio– cuando son como mínimo cuatro (a Mojica, Doudna y Charpentier se suma el chino-estadounidense Feng Zhang) quienes merecerían el reconocimiento.

El Nobel de Química que murió en España

Los nombres de Santiago Ramón y Cajal y Severo Ochoa son hoy de sobra conocidos incluso para el ciudadano medio sin conocimientos de ciencia. Pero esto, más que un motivo para celebrar, es una razón para el sonrojo: son las dos únicas personas nacidas en España que han alcanzado el reconocimiento de un Nobel de ciencia.

El número de españoles ganadores de un Nobel de Literatura más que duplica esta cifra (cinco, para ser exactos). El historiador del CSIC Ricardo Campos, en un estudio sobre la eugenesia del franquismo (que conté en detalle aquí), escribía que el psiquiatra franquista Juan José López Ibor definía al hombre español como “estoico, sobrio, buscador de gloria militar y literaria, despectivo hacia la ciencia y la técnica e impasible frente la muerte”. Y así hemos llegado a donde estamos.

Para un estadounidense o un británico, aprenderse la lista de sus científicos laureados con el Nobel sería casi misión imposible. Y ni siquiera la diferencia entre su potencia científica y la nuestra es suficiente justificación: como conté aquí en una ocasión, España es el undécimo país en número de publicaciones científicas (de hecho, cuando lo conté éramos los décimos, pero la reciente edad oscura para la ciencia española nos ha hecho perder un puesto que será muy complicado volver a recuperar), pero se queda en un vergonzoso vigésimo séptimo lugar en número de premios Nobel de ciencia, a la altura de Luxemburgo o Lituania.

Wendell Meredith Stanley en 1946, el año en que ganó el Nobel de Química. Imagen de Wikipedia.

Wendell Meredith Stanley en 1946, el año en que ganó el Nobel de Química. Imagen de Wikipedia.

Todo lo anterior me ha venido al hilo del recuerdo de un episodio poco conocido, y es que si este país solo ha alumbrado dos Nobel de ciencia, en cambio ha matado a uno más. Es un decir, claro; en realidad fue su corazón lo que mató a Wendell Meredith Stanley el 15 de junio de 1971, unas horas después de pronunciar una conferencia en la Universidad de Salamanca. Al día siguiente, 16 de junio, el diario ABC (que daba la noticia a toda página bajo el epígrafe “vida cultural”) contaba que Stanley, profesor de la Universidad de Berkeley y Nobel de Química en 1946, había fallecido de madrugada a la edad de 67 años por un infarto de miocardio en su alojamiento, el Colegio Fonseca.

Stanley había viajado a Barcelona con motivo de un congreso científico en compañía de Severo Ochoa, con quien mantenía amistad, y había sido invitado a Salamanca por el bioquímico Julio Rodríguez Villanueva, quien antes de la conferencia de Stanley advirtió de que “las preguntas que formularan al premio Nobel se le hicieran despacio, a causa de que había sufrido varios ataques al corazón”, contaba ABC. La preocupación de Villanueva no pudo ser más premonitoria.

Pero ¿quién era Wendell Meredith Stanley? Resulta curioso que para un país como EEUU un Nobel de ciencia sea algo tan de andar por casa que algunos de ellos sean casi unos completos desconocidos. Fuera de los círculos de la microbiología y la biología molecular (y tal vez dentro), el nombre de Stanley solo invita a encoger los hombros, e incluso su página en la Wikipedia inglesa no le dedica más de cuatro o cinco párrafos.

Casi oculto, Wendell Stanley asoma la cabeza al fondo de esta foto tomada en la Casa Blanca en 1961, durante un encuentro con científicos del presidente John F. Kennedy. Imagen de White House / Wikipedia.

Casi oculto, Wendell Stanley asoma la cabeza al fondo de esta foto tomada en la Casa Blanca en 1961, durante un encuentro con científicos del presidente John F. Kennedy. Imagen de White House / Wikipedia.

Y sin embargo, podríamos decir que Wendell Stanley fue nada menos que el descubridor de los virus. Para los iniciados en el tema esta afirmación puede ser discutible, pero démosle la vuelta: si hubiera que nombrar a un solo científico/a como descubridor de los virus, ¿quién merecería este título más que Wendell Stanley?

En la segunda mitad del siglo XIX el francés Louis Pasteur y el alemán Robert Koch sentaron la teoría microbiana de la enfermedad, según la cual las infecciones estaban provocadas por los microbios. Pasteur, Koch y otros científicos comenzaron a identificar las bacterias responsables de numerosas enfermedades, y las infecciones dejaron de ser un misterio a medida que iban cayendo una tras otra bajo el microscopio de los investigadores.

Pero una se les resistía: la rabia. Nadie era capaz de aislar bajo las lentes una bacteria a la que culpar de la rabia. Lo mismo ocurría con ciertas enfermedades de las plantas, en las cuales los investigadores buscaban causas bacterianas al hilo de los trabajos de Pasteur y Koch, pero sin éxito. Uno de estos científicos era el químico alemán Adolf Mayer, que en 1886 describió una plaga a la que denominó mosaico del tabaco, que arruinaba las hojas de esta planta entonces tan apreciada. Mayer extraía savia de una planta afectada y la inoculaba en un ejemplar sano, observando que la enfermedad se transmitía. Pero cuando estudiaba la savia al microscopio, no encontraba nada.

Mayer y otros investigadores, como el ruso Dmitri Ivanovsky, descubrieron que el misterioso causante del mosaico del tabaco era algo capaz de atravesar no solo un papel de filtro, sino también unos filtros de porcelana inventados por el francés Charles Chamberland y que servían para limpiar un líquido de bacterias. ¿Qué era lo que causaba aquella infección del tabaco?

La teoría de la época suponía que se trataba de una toxina o de una bacteria diminuta, hasta que en 1898 el holandés Martinus Beijerinck se atrevió a aventurar que aquella enfermedad del tabaco estaba causada por otro tipo de agente infeccioso que no era una bacteria, al que llamó “virus”, “veneno” en latín, un término que ya se había empleado siglos antes en referencia a agentes contagiosos desconocidos. Beijerinck acertó al sugerir que el virus era algo más o menos vivo (no como una toxina), ya que solo afectaba a las células que se dividían. Pero se equivocó al proponer que era de naturaleza líquida.

A partir de los experimentos de Beijerinck, los microbiólogos comenzaron a llamar “virus” a todo agente infeccioso invisible al microscopio y que atravesaba los filtros. El primero en detectarse en animales fue el de la fiebre aftosa, y después llegaron los humanos, el de la fiebre amarilla, la rabia, la viruela y la poliomielitis. Pero aunque ya era de conocimiento común que todas estas enfermedades eran víricas, en realidad aún no se tenía la menor idea sobre qué y cómo eran estos virus. Aún se seguía admitiendo generalmente que no eran partículas, sino misteriosos líquidos infecciosos, una especie de veneno vivo.

Aquí es donde entra nuestro Stanley. En la década de los 30 apareció el microscopio electrónico, una herramienta que permitía hacer visible lo invisible al microscopio óptico tradicional. Y con el potencial que ofrecía esta nueva tecnología, en 1935 Stanley se propuso destripar de una vez por todas la naturaleza del virus del mosaico del tabaco, emprendiendo uno de esos trabajos penosos que alguien tenía que hacer en algún momento: despachurró una tonelada de hojas de tabaco, extrajo su jugo, lo purificó, y de todo ello finalmente obtuvo una exigua cucharadita de polvo blanco. Pero allí estaba el virus del mosaico del tabaco, una especie de minúsculo ser con forma alargada que seguía siendo infectivo incluso cuando estaba cristalizado; es decir, lo que llamaríamos más o menos muerto.

El virus del mosaico del tabaco al microscopio electrónico. Imagen de Wikipedia.

El virus del mosaico del tabaco al microscopio electrónico. Imagen de Wikipedia.

En realidad fueron otros investigadores los que después obtuvieron las primeras imágenes de microscopía electrónica del virus del mosaico del tabaco, y Stanley se equivocó en algunas de sus hipótesis, como cuando propuso que el virus solo estaba compuesto por proteínas. Pero no solo su virus fue realmente el primer virus que ya era algo más que un nombre, sino que aquella extraña capacidad de infectar incluso cuando estaba cristalizado descubrió para la ciencia el rasgo fundamental de los virus, y es que no son exactamente seres vivos, o al menos no como los demás. Pero esta ya es otra historia.

Los astronautas del futuro podrían (y deberían) reciclar sus heces para comer

Suele creerse que los astronautas comen píldoras, lo cual no es cierto. En los primeros vuelos espaciales se experimentó con tubos de pasta alimenticia, cubitos y comida en polvo. De hecho, en aquellos viajes pioneros los expertos ni siquiera estaban seguros de si sería posible comer en el espacio, ya que no sabían cómo la microgravedad podía afectar a la deglución.

La astronauta Sandra Magnus fue la primera que experimentó con la cocina en el espacio. Imagen de NASA.

La astronauta Sandra Magnus fue la primera que experimentó con la cocina en el espacio. Imagen de NASA.

Pero pasados aquellos tanteos iniciales, los astronautas comenzaron a alimentarse con comidas muy parecidas a las que tomamos aquí abajo, y su dieta está vigilada por nutricionistas que se aseguran de su correcta alimentación. No se preparan un solomillo Wellington, pero sí han llegado a experimentar con la cocina.

El principal problema allí arriba es que las cosas flotan, y por lo tanto no se puede echar un filete a una sartén ni hervir un huevo (el vapor no sube), se sustituye el pan por tortillas mexicanas para no crear una nube de migas y la sal viene en forma líquida. Pero comen pollo, ternera, fruta, verduras, pescado, e incluso en algunos casos pizza o hamburguesas. Las raciones preparadas suelen ir en paquetes sellados y deshidratados por comodidad y conservación, pero no por una cuestión de aligerar el peso del agua, ya que todo alimento seco debe rehidratarse, y en el espacio no es posible ir al río a por agua.

Pero todo esto se refiere a la única presencia humana actual en el espacio, la Estación Espacial Internacional (ISS). Y como siempre aclaro aquí, no olvidemos que la ISS, en términos de viajes espaciales, es casi un simulacro; la estación orbita a solo unos 400 kilómetros sobre la Tierra, algo menos de la distancia en AVE entre Madrid y Sevilla, que el tren recorre en unas dos horas y media. La diferencia en el caso de la ISS es que, al poner esos kilómetros de pie, llevar cualquier cosa allí es más complicado por la pegajosa gravedad de la Tierra. Pero recuerden que si todo flota en la ISS no es porque esté tan lejos que escapa del influjo gravitatorio terrestre, ni mucho menos, sino solo porque está continuamente en caída libre, como en esas atracciones de los parques donde te sueltan de golpe y sientes que la sangre se te sube a la cabeza.

Otra cosa muy diferente serían los viajes espaciales de verdad, esos que nunca parecen llegar. Pero si algún día ocurren, ¿cómo se alimentarán sus tripulantes? En el cine de ciencia ficción que se preocupa de estos asuntos, suelen plantearse posibilidades como los cultivos hidropónicos, que se crecen en agua y sin tierra. Esta es una opción real, y de hecho se practica en la ISS.

El astronauta Ed Lu, comiendo con palillos en la ISS. Imagen de NASA.

El astronauta Ed Lu, comiendo con palillos en la ISS. Imagen de NASA.

Pero tengamos en cuenta una realidad física: la materia no se crea ni se destruye, solo cambia de forma. Para que una tomatera produzca un tomate de 100 gramos, esos 100 gramos de materia debe robárselos a su entorno; otra cosa tiene que perder esos 100 gramos. Este es uno de los fallos más habituales en las otras películas de ciencia ficción, las que no se preocupan de estos detalles, y donde los seres crecen aparentemente de la nada.

En la ISS esto no supone un problema, porque los tripulantes reciben periódicamente naves de la Tierra con suministros frescos. Pero en un supuesto viaje interplanetario largo, no digamos ya interestelar, donde no pudiera llevarse toda la comida desde la Tierra y tuviera que fabricarse a bordo, los astronautas producirían sus propios alimentos, comerían, defecarían; si, como se hace en la ISS, expulsaran sus residuos al exterior, poco a poco irían robando materia al hábitat de la nave hasta que no quedara suficiente para seguir sosteniendo la producción de alimentos.

En el espacio abierto no hay materia que pueda recogerse; salvo que encontraran un oasis (como un planeta) donde repostar la química básica necesaria para sus alimentos, sobre todo carbono, hidrógeno, oxígeno, nitrógeno, fósforo y azufre, la situación sería insostenible. Por supuesto, otro tanto ocurre con el agua. Los viajeros también podrían fabricar su propia agua, pero igualmente necesitarían ir reponiendo su stock de hidrógeno y oxígeno.

Así pues, no les quedaría otro remedio: deberían reciclar sus propias heces para producir alimentos. Por asqueroso que esto pueda parecer, mirémoslo desde un punto de vista estrictamente químico: las heces son materia rica en nutrientes. La mayor parte se compone de bacterias, pero contiene todos esos elementos que los viajeros espaciales no podrían permitirse el lujo de tirar al espacio.

Simplemente, esos átomos y moléculas se encuentran en una forma no utilizable directamente, porque han perdido la energía que podemos extraer de ellos. Los seres vivos somos vampiros energéticos. Al digerir el alimento, le robamos energía (y materia, por supuesto). Para transformar esos residuos otra vez en alimento, simplemente debemos aportarles energía para convertirlos en otras formas moleculares que podamos aprovechar como fuente de energía.

Y por suerte, energía sí la hay en el espacio: hay luz, viento solar, rayos cósmicos, partículas que viajan a alta velocidad… La solución consistiría en cosechar esa energía y utilizarla para recargar las moléculas de las heces, como se recarga una pila, y así convertirlas de nuevo en alimento.

Desde hace años, en la ISS se recicla la orina de los astronautas para producir agua potable, y como conté aquí hace unos meses, en la Tierra también se están probando sistemas con este mismo fin. Lo de las heces llevará más trabajo, pero esta semana se ha publicado un estudio que aporta un sistema completo. No es ni mucho menos autosuficiente ni recicla todos los componentes de las heces sino solo un compuesto concreto, pero es un comienzo.

La astronauta italiana Samantha Cristoforetti explica el funcionamiento del retrete de la ISS. Imagen de ESA.

La astronauta italiana Samantha Cristoforetti explica el funcionamiento del retrete de la ISS. Imagen de ESA.

Los investigadores, de la Penn State University, no han utilizado (aún) heces ni orina, sino un residuo sólido y líquido que se emplea habitualmente para testar los sistemas de reciclaje; algo así como una caca humana industrial. El primer paso de su sistema consiste en utilizar ese residuo como comida para microorganismos; aunque nosotros no podemos alimentarnos directamente de nuestras heces, para muchos microbios son un manjar. Este proceso se llama digestión anaerobia. Es similar al que tiene lugar en nuestro tubo digestivo y se aplica en la Tierra al tratamiento de los residuos.

De esta digestión anaerobia, para la cual el aparato utiliza filtros modificados de los que se ponen en los acuarios, los investigadores cosecharon uno de sus preciados productos: el metano, el componente fundamental del gas natural, que contiene carbono e hidrógeno. El metano se sirve entonces a otro tipo de bacteria que lo usa como alimento y que crece muy a gusto comiéndoselo. Esta bacteria, llamada Methylococcus capsulatus, tiene un 52% de proteína y un 36% de grasa, y todo ello en forma comestible; actualmente se emplea como alimento para el ganado. Y no piensen que comer bacterias continúa siendo algo extraño y repelente; ¿qué si no es el yogur?

Los investigadores han probado su sistema asegurándose de que no crecen bacterias tóxicas, aplicando rangos de pH (acidez/alcalinidad) muy restrictivos y temperaturas altas para que la comida no se estropee. De momento es solo un prototipo y aún está muy lejos de convertirse en un aparato práctico; pero hasta el día en que tengamos naves interestelares, hay tiempo de sobra para desarrollarlo. El director del estudio, el geocientífico Christopher House, dice: “imaginen si alguien pudiera refinar nuestro sistema para poder recuperar un 85% del carbono y el nitrógeno del residuo en forma de proteínas sin tener que utilizar hidropónicos o luz artificial; sería un desarrollo fantástico para los viajes al espacio profundo”.

De la cerveza al urinario, y de vuelta a la cerveza

A propósito de mi anterior artículo sobre el Marmite, ese extraño alimento de origen británico creado con los restos de la fermentación industrial de la levadura, Alicia me hacía la observación en Twitter de que posiblemente en los países del norte aprovechen al máximo la cerveza tal y como nosotros hacemos con el cerdo.

El comentario de Alicia me trajo a la memoria una noticia que circuló a finales de la primavera de este año y que pone lacre y sello a esa idea. Porque ¿qué mayor aprovechamiento de la cerveza que recoger el resultado de su paso por el cuerpo humano y volver a convertirlo en cerveza?

Esto es exactamente lo que ha hecho el Consejo de Agricultura y Alimentación de Dinamarca (para abreviar, DAFC, en inglés), con la colaboración de la empresa danesa Nørrebro Bryghus. Se lo explico. A nadie se le escapa que en los festivales de música se consumen océanos de cerveza, y todo asiduo a los conciertos en grandes recintos ha tenido que esperar pacientemente alguna vez al final de una larga fila para devolver al mundo el líquido ingerido, del modo que narraban Pablo Carbonell y los Toreros Muertos.

Pues bien, en 2015 al DAFC se le ocurrió recoger la orina vertida por los asistentes al Festival de Roskilde, celebrado anualmente cerca de Copenhague y que pasa por ser uno de los mayores eventos musicales de Europa. Nada menos que 54.000 litros; piensen en esa botella de agua que tienen en la nevera, y multiplíquenla por 54.000.

Asistentes al Festival de Roskilde en 2015, contribuyendo al proyecto. Imagen de Beercycling.

Asistentes al Festival de Roskilde en 2015, contribuyendo al proyecto. Imagen de Beercycling.

En la primavera de 2016, esas 54 toneladas de agüita amarilla se emplearon como fertilizante en los campos daneses para producir 11 toneladas de malta de cebada. Y después, otra vez a fabricar cerveza. El resultado: 60.000 botellas de cerveza Pilsner que se lanzaban a la venta el pasado junio bajo la marca, no había otra, Pisner.

Los responsables del Proyecto Beercycling aclaraban que los granjeros han utilizado durante siglos la orina del ganado para fertilizar sus cultivos, y que en este caso solo se ha añadido la idea innovadora de aprovechar la humana, con el añadido de que en este caso la materia prima procedía principalmente del consumo de cerveza. Lo cual no es un factor relevante técnicamente, pero le da al proyecto un interesante carácter circular, además de ser hermosamente alegórico.

Cerveza Pisner. Imagen de Beercycling.

Cerveza Pisner. Imagen de Beercycling.

Pero si han suspirado de alivio al saber que la orina no se transforma directamente en cerveza, sino que simplemente se esparce por los campos, no suspiren tan deprisa: en otro proyecto, científicos de la Universidad de Gante (Bélgica) han creado una máquina que recicla directamente la orina en agua potable y fertilizante.

En este caso, sí: los 1.000 litros de orina recogidos de los asistentes al Festival de Música y Teatro de Gante por el investigador Sebastiaan Derese y sus colaboradores estaban destinados a elaborar cerveza sin pasar por el filtro de la naturaleza, sino solo por el de la máquina. “Recuperación completa de nutrientes de la orina humana”, es el tema en el que investiga Derese para su tesis doctoral.

Puede que ideas como la de Derese tengan que vencer algunas resistencias, pero háganse a la idea de que ese es el futuro al que nos dirigimos. Claro que tal vez sea necesario recordar un axioma básico, no por evidente menos incomprendido:

Toda el agua de la Tierra es reciclada.

El agua que bebemos es la misma que llevan bebiendo y excretando todos los seres vivos que han pasado por este planeta durante millones de años. La naturaleza actúa como gran máquina de filtro, devolviéndonos lo que expulsamos después de cubrir un gran ciclo de reciclaje.

Lo cierto es que actualmente lo más común es reciclar el agua usada en las plantas de depuración para destinos diferentes al consumo humano, como el riego o la recarga de acuíferos. Pero solo porque la tecnología aún no está lo suficientemente extendida como para que se nos devuelva al grifo lo que hemos vertido por el desagüe.

Curiosamente, en 2008, cuando la NASA instaló en la Estación Espacial Internacional su primer sistema para reciclar la orina y el sudor de los astronautas en agua potable, publicó el avance bajo el título “reciclar agua ya no es solo para la Tierra”. Pero lo cierto es que en la Tierra aún no hemos llegado a ese nivel de reciclaje que en el espacio es una necesidad. Aunque sin duda, llegaremos, porque cada vez más es también una necesidad aquí abajo. Así que vayan haciéndose a la idea: en un futuro tal vez cercano, reciclar orina para beber ya no solo será para el espacio.

La fruta que comemos está atiborrada de productos químicos

Si han llegado aquí y están leyendo este párrafo sin conocer la línea de este blog, probablemente sea por uno de dos motivos: a) esperan leer alguna revelación que les lleve a reafirmarse en eso de “¡claro, nos envenenan con química!”, o b) se disponen a vapulear al autor de este blog porque, naturalmente (y nunca mejor dicho), LA NATURALEZA NO ES OTRA COSA QUE PRODUCTOS QUÍMICOS.

Evidentemente, la respuesta correcta es la b). Y el titular de este artículo tiene truco, lo cual seguramente me llevará a recibir el vapuleo en Twitter de quienes se cansan leyendo más de 140 caracteres de una vez. Aquí les traigo una muestra gráfica que no es nueva, pero que en su momento causó un enorme revuelo en internet. El profesor de química australiano James Kennedy está justificadamente harto de que, para cierto sector de la sociedad, un químico reciba hoy una calificación moral similar a la de un terrorista, o peor. Kennedy es uno de esos tipos dotados con un sobresaliente talento divulgador, y hace unos años publicó en su blog varias listas de los ingredientes químicos que componen algunas de las frutas y otros alimentos naturales de consumo común. Aquí tienen algunas de ellas, con la del plátano en castellano por gentileza de Kennedy (imágenes de James Kennedy):

Observarán, aparte de lo tremendamente fácil que le resulta a cualquier pirómano social asustar a la población con nombres como dihidrometilciclopentapirazina, que en la lista figuran varias de esas sustancias que se designan con una letra E y un número, correspondiente a su clasificación como aditivos alimentarios, por ejemplo colorantes o conservantes.

En efecto, estos componentes están presentes de forma natural en los alimentos; el hecho de que se sinteticen en un tanque industrial para disponer de grandes cantidades y añadirlos a otros alimentos no los hace mejores ni peores: son exactamente la misma cosa. Y pensar que los productos químicos artificiales son dañinos por definición es un error tan idiota como dejarse morder por una serpiente de cascabel amparándose en la cita de esa preclara experta en salud llamada Gwyneth Paltrow: “nada que sea natural puede ser malo para ti”.

Y por cierto, aprovecho que paso por aquí para aclarar otro malentendido de garrafa: en alguna ocasión he comprobado cómo algunas personas, que evidentemente se saltaron algún curso de la secundaria obligatoria, creen que la distinción entre química orgánica e inorgánica consiste en que la primera es la de la naturaleza y la segunda la de las fábricas. Imagino que se debe a aquello de los alimentos “orgánicos”.

Perdónenme si esto les desencaja la mandíbula a algunos de ustedes, pero puedo asegurarles que he leído esto en más de una ocasión. Así que debo aclarar lo obvio: química orgánica es la que se basa en el carbono, inorgánica la que no. No tiene absolutamente nada que ver con el carácter natural o artificial del compuesto. El agua es química inorgánica, y sin duda Gwyneth Paltrow certificaría que es un producto natural.

Pese a todo lo anterior, asistimos ahora a una imparable tendencia de productos que se publicitan como sin conservantes ni colorantes, una moda que está socialmente aceptada y que no va a remitir. Hay una pseudociencia de la quimiofobia, tan imposible de erradicar como el resto de pseudociencias.

Lo más llamativo es el mecanismo de círculo vicioso que se crea entre la sociedad y la floreciente industria de lo “natural”: un sector de la población, ignoro si mayoritario pero que marca tendencia, se apunta a la pseudociencia de la quimiofobia. Las compañías de productos de consumo, con el propósito de aumentar sus ventas, eliminan de sus artículos sustancias inocuas, como los conservantes, los colorantes o los parabenos de jabones y desodorantes, para así presentarse ante el consumidor con una imagen más “natural”. Cuando estas marcas publicitan lo que no llevan, no hacen sino reforzar entre la población la idea de que las sustancias que antes llevaban los productos de esas marcas, pero ya no, deben de ser dañinos; por algo los habrán eliminado. Poco importa que en realidad los hayan eliminado no porque sean perjudiciales, sino porque usted cree que lo son. Es la versión moderna de las Brujas de Salem: ¡a la hoguera con conservantes, colorantes, parabenos…!

Esta irresponsabilidad social de las compañías de productos de consumo ampara también mucha trampa y cartón a través de prácticas publicitarias engañosas. En numerosos casos, etiquetas, eslóganes, anuncios y reclamos juegan sutilmente con las palabras para no mentir, pero tampoco decir toda la verdad. Un ejemplo: una marca de pan de molde estampa en sus bolsas el lema “sin colesterol”. La única manera de que el pan llevara colesterol sería que el panadero perdiera algún dedo dentro, ya que el colesterol es un lípido que actúa como componente esencial de las membranas de las CÉLULAS ANIMALES. Pero no parece probable que esta marca pretenda informar inocentemente al consumidor, sino más bien crearle la ficción de que su producto es más saludable que otros de la competencia. Naturalmente, es probable que los competidores se apunten al mismo reclamo para no ser menos, y así se difundirá entre los consumidores la falsa idea de que el pan lleva colesterol a no ser que se indique lo contrario.

Otro ejemplo es la etiqueta “sin gluten”, también popularizada hoy por la errónea creencia de que estas proteínas causan algún efecto dañino en las personas no celíacas. Cada vez más productos de lo más variopinto se suman hoy a la moda de exhibir este lema, y ello pese a que el gluten solo está presente en los cereales. Imagino que la etiqueta “sin gluten” aporta tranquilidad a los compradores celíacos, pero tengo mis dudas de que sea este el propósito que motiva a las marcas para estampar este lema en productos que no tendrían por qué llevar cereales en su composición: si una salchicha se publicita como compuesta por un 100% de carne, añadir una etiqueta “sin gluten” es un reclamo publicitario tramposo.

Una marca de zumos se anuncia en televisión diciendo que “no les ponen azúcar”. Pese a la apariencia casual de la frase, la fórmula parece sospechosamente elegida para que el consumidor incauto caiga en la trampa de creer que se trata de zumos diferenciados de la competencia por no llevar azúcar. La ciencia nutricional actual está condenando a los azúcares (también naturales, como diría Gwyneth) como causantes de la enfermedad cardiovascular, y la fórmula más tradicional y correcta “sin azúcares añadidos” tal vez ya no sea suficientemente eficaz como reclamo publicitario; pero basta con sobreimpresionar en la pantalla un mensaje en letra pequeña aclarando que los zumos tienen todo el azúcar de la fruta para atravesar ese colador de malla gruesa que es la publicidad autorregulada.

Anuncios que esconden parte de la verdad, proclamas saludables sin fundamento demostrado, suplementos dietéticos que no suplementan nada que resulte útil suplementar… Hace unos días el mando a distancia de mi televisor me llevó por azar a un programa estadounidense llamado Shark Tank, en el que varios emprendedores trataban de conseguir financiación para sus negocios de un puñado de millonarios bastante ostentotes (palabra que acabo de inventarme). Varios de los negocios aspirantes vendían suplementos nutricionales o productos parafarmacéuticos, siempre naturales. Los inversores ametrallaban a los candidatos a preguntas sobre ventas, rentabilidad, distribución, competencia…

Ninguno de ellos hacía la que debería ser la pregunta fundamental: ¿realmente eso sirve para algo? No parecía importar lo más mínimo; obviamente, bastaba con que los compradores así lo creyeran. Los productos químicos sintéticos y los fármacos están estrechamente regulados por las leyes de los países, y por las comunitarias en el caso de la UE. Fuera de esas leyes está la jungla; tan natural como peligrosa y sembrada de trampas.

Un hallazgo en un cometa complica la búsqueda de vida alienígena

¿Cómo puede un descubrimiento en un cometa complicar la búsqueda de vida alienígena? Si les interesa, sigan leyendo.

Tal vez recuerden que hace dos años y medio hasta algunos telediarios abrieron con el primer aterrizaje de un artefacto espacial en un cometa: se trataba de Philae, un módulo separable de la sonda Rosetta de nuestra Agencia Europea del Espacio (ESA). Philae solo pudo operar durante un par de días debido a que su aterrizaje defectuoso lo dejó en un lugar bastante escondido de la luz del sol, pero su breve vida fue suficiente para hacer ciencia muy valiosa. Por su parte, su nodriza Rosetta concluyó su misión en septiembre de 2016 estrellándose contra el objeto de su estudio, el cometa 67P/Churyumov–Gerasimenko.

Imagen del cometa 67P/Churyumov–Gerasimenko tomada por la sonda Rosetta. Imagen de ESA/Rosetta/NAVCAM.

Imagen del cometa 67P/Churyumov–Gerasimenko tomada por la sonda Rosetta. Imagen de ESA/Rosetta/NAVCAM.

Entre los descubrimientos que Rosetta ha aportado al conocimiento, en 2015 los científicos de la misión anunciaron el hallazgo de oxígeno molecular en la atmósfera del cometa. El oxígeno molecular es lo que respiramos, una molécula formada por dos átomos de oxígeno, O2. Y a pesar de que el oxígeno como elemento es uno de los más abundantes en el universo (el tercero, después de hidrógeno y helio), su forma molecular, la respirable, es extremadamente rara, que sepamos hasta ahora. Hasta 2011 no se confirmó por primera vez su existencia fuera del Sistema Solar, y no fue precisamente aquí al lado: en una región formadora de estrellas de la nebulosa de Orión, a unos 1.500 años luz. Posteriormente se ha detectado también en otra zona de formación de estrellas de la nebulosa Rho Ophiuchi.

La rareza del oxígeno molecular estriba en que es muy reactivo, muy oxidante, por lo que tiende a reaccionar rápidamente con otros compuestos y desaparecer en esta forma; por ejemplo, con el hidrógeno para producir agua. Así que, cuando los científicos encontraron oxígeno molecular en el cometa 67P, la reacción lógica se resumía en tres letras: WTF?

La explicación que sugirieron los investigadores de Rosetta era que el oxígeno estaba congelado en el cometa desde su formación, en los tiempos del origen del Sistema Solar, y que se iba liberando por el calor del sol. Sin embargo, la hipótesis fue cuestionada porque incluso en este caso parecía improbable que el oxígeno pudiera haber permanecido intacto, sin reaccionar, durante miles de millones de años.

Ahora, por fin existe una explicación para el oxígeno de 67P, y ha llegado de una fuente inesperada: un ingeniero químico que se dedica a la investigación de nuevos componentes electrónicos. Konstantinos Giapis, de Caltech (EEUU), se dedica desde hace 20 años a cosas como bombardear semiconductores con chorros de átomos cargados a alta velocidad para estudiar las reacciones químicas que se producen.

Cuando Giapis supo del descubrimiento de Rosetta, de repente se dio cuenta de que el cometa podía ser un ejemplo real de los experimentos que él realiza en el laboratorio: el hielo presente en 67P se calienta con el sol, liberando vapor de agua que se ioniza con la radiación ultravioleta solar y se estrella de nuevo a alta velocidad con el cuerpo del cometa por el efecto del viento solar. Cuando estas moléculas de agua chocan contra la superficie de 67P, arrancan átomos de oxígeno que se combinan con el oxígeno del agua para formar O2.

Ilustración del experimento de Konstantinos Giapis. Al bombardear con moléculas de agua (izquierda) una superficie de materiales similares a los del cometa 67P, se desprende oxígeno molecular (en rojo; el hidrógeno, en azul). Imagen de Caltech.

Ilustración del experimento de Konstantinos Giapis. Al bombardear con moléculas de agua (izquierda) una superficie de materiales similares a los del cometa 67P, se desprende oxígeno molecular (en rojo; el hidrógeno, en azul). Imagen de Caltech.

No es solo una teoría: Giapis lo ha puesto a prueba en su laboratorio, simulando el proceso que tiene lugar en el cometa, y ha demostrado que se produce oxígeno molecular. Así que la presencia de este compuesto en 67P no es una reliquia de la época del nacimiento del cometa, sino una reacción que está ocurriendo ahora para generar oxígeno respirable fresco.

Lo cual nos lleva de vuelta al título de este artículo. Y es que, aunque el estudio de Giapis aporta un interesante hallazgo en el campo de la astrofísica/química, sus repercusiones pueden complicar aún más la búsqueda de firmas de vida en planetas extrasolares: incluso si se detecta oxígeno en la atmósfera de alguno de estos lejanos planetas, ya hay otro mecanismo más que podría explicar su origen sin necesidad de que exista algo vivo allí.

El drama de la búsqueda de vida en el universo es que difícilmente llegaremos jamás a tener una prueba directa, una confirmación absoluta. Todos los intentos de encontrar biología en planetas extrasolares, que cada vez son más (los intentos y los planetas), deben conformarse con buscar indicios indirectos, como señales que no sean fácilmente atribuibles a un fenómeno natural. Los nuevos instrumentos de observación van a facilitar en los próximos años el análisis de las atmósferas de muchos exoplanetas, y con ello será posible sospechar que tal o cual composición atmosférica podría indicar la existencia de vida.

Naturalmente, la más evidente de estas posibles firmas biológicas atmosféricas es el oxígeno. Nunca se ha pretendido que esta fuese una firma definitiva: existen procesos geológicos y químicos que pueden dar lugar a la generación de este gas sin intervención de nada vivo. Por ejemplo, Europa y Ganímedes, dos de las grandes lunas de Júpiter, tienen atmósferas de oxígeno muy tenues, pero allí este gas se forma por la ruptura del agua (H2O) causada por la radiación, o radiolisis.

Sin embargo, con los procesos abióticos (sin vida) de fabricación de oxígeno ocurren dos cosas: primero, no parece fácil que puedan originar enormes cantidades de este gas y sostenidas a lo largo del tiempo. En el caso de la Tierra, el gran inflado de nuestra atmósfera se produjo por la proliferación de microbios fotosintéticos, y si aún hoy podemos respirar es gracias a que seguimos teniendo organismos fotosintéticos.

Segundo, en algunos casos esos procesos requieren condiciones que tampoco son hospitalarias para la vida. Por ejemplo, en planetas muy calientes y próximos a su estrella, la radiación UV de esta puede descomponer el agua. Pero si se encuentra oxígeno en un planeta así, sus propias condiciones hacen muy improbable que exista algo vivo.

En resumen, y aunque detectar oxígeno en abundancia en la atmósfera de un exoplaneta no sería una demostración de vida, sí sería un buen comienzo. O al menos, lo era, hasta el hallazgo de Giapis. Ahora sabemos que hay una manera más de producir oxígeno, que a 67P le funciona muy bien, y en la que no interviene nada parecido a la vida. Desde Caltech ya nos advierten: “otros cuerpos astrofísicos, como planetas más allá de nuestro Sistema Solar, o exoplanetas, también podrían producir oxígeno molecular por el mismo mecanismo abiótico, sin necesidad de vida. Esto puede influir en la futura búsqueda de signos de vida en exoplanetas”.

Sin un “segundo génesis”, no hay alienígenas

Si les dice algo el nombre del lago Mono, en California, una de dos: o han estado por allí alguna vez, o recuerdan el día en que más cerca estuvimos del “segundo génesis”.

Les explico. A finales de noviembre de 2010, la NASA sacudió el ecosistema científico lanzando un teaser previo a una rueda de prensa en la que iba a “discutirse un hallazgo de astrobiología que impactará la búsqueda de pruebas de vida extraterrestre”. La conferencia, celebrada el 2 de diciembre, solo decepcionó a quienes esperaban la presentación de un alien, algo siempre extremadamente improbable y que el anuncio tampoco insinuaba, salvo para quien no sepa leer. Para los demás, lo revelado allí era un descubrimiento excepcional en la historia de la ciencia: una bacteria diferente a todos los demás organismos de la Tierra conocidos hasta ahora.

El lago Mono, en California. Imagen de Wikipedia.

El lago Mono, en California. Imagen de Wikipedia.

Coincidiendo con la rueda de prensa, los resultados se publicaron en la web de la revista Science bajo un título breve, simple y atrevido: “Una bacteria que puede crecer usando arsénico en lugar de fósforo”. La sinopsis de la trama decía que un equipo de investigadores, dirigidos por la geobióloga Felisa Wolfe-Simon, había encontrado en el lago Mono un microorganismo capaz de emplear arsénico como sustituto del fósforo en su ADN. Lo que para otros seres terrestres es un veneno (su posible papel como elemento traza aún se discute), para aquella bacteria era comida.

Toda la vida en este planeta, desde el virus que infecta a una bacteria hasta la ballena azul, se basa en la misma bioquímica. Uno de sus fundamentos es un material genético (ADN o ARN) formado por tres componentes: una base nitrogenada, un azúcar y un fosfato. Dado que este fue el esquema fundador de la biología terrestre, todos los seres vivos estamos sujetos a él. Encontrar un organismo que empleara un sistema diferente, por ejemplo arseniato en lugar de fosfato, supondría hallar una forma de vida que se originó de modo independiente a la genealogía de la que todos los demás procedemos.

Esto se conoce informalmente como un “segundo génesis”, un segundo evento de aparición de vida (que no tiene por qué ser el segundo cronológicamente). Sobre si la bacteria del lago Mono, llamada GFAJ-1, habría llegado a representar o no un segundo génesis, hay opiniones. Hay quienes piensan que no sería así, ya que la existencia de un ADN modificado habría representado más bien una adaptación extrema muy temprana dentro de una misma línea evolutiva.

Para otros, es irrelevante que el origen químico fuera uno solo: dado que la definición actual de cuándo la no-vida se transforma en vida se basa en la acción de la evolución biológica, existiría la posibilidad de que la diversificación del ADN se hubiera producido antes de este paso crucial, y por lo tanto la vida habría arrancado ya con dos líneas independientes y paralelas.

Pero mereciera o no la calificación de segundo génesis, finalmente el hallazgo se desinfló. Desde el primer momento, muchos científicos recibieron el anuncio con escepticismo por razones teóricas, como el hecho de que el ADN con arsénico en lugar de fósforo daría lugar a un compuesto demasiado inestable para la perpetuación genética (este es solo un caso más de por qué muchas de las llamadas bioquímicas alternativas con las que tanto ha jugado la ciencia ficción son en realidad pura fantasía que hace reír a los bioquímicos). La publicación del estudio confirmó las sospechas: los experimentos no demostraban realmente que el ADN contuviera arsénico. Y como después se demostró, no lo contenía.

La bacteria GFAJ-1 del lago Mono resultó ser simplemente una extremófila más, un bicho capaz de crecer en aguas muy salinas, alcalinas y ricas en arsénico. Tenía una tolerancia fuera de lo común a este elemento, pero no lo empaquetaba en su ADN; se limitaba a acumularlo, construyendo su material genético con el fósforo que reciclaba destruyendo otros componentes celulares en tiempos de escasez. Su única utilidad real fue conseguir el propósito expresado en su nombre, GFAJ, formado por las iniciales de Give Felisa A Job (“dadle un trabajo a Felisa”): aunque el estudio fuera refutado, le sirvió a Wolfe-Simon como trampolín para su carrera.

Bacterias GFAJ-1. Imagen de Wikipedia.

Bacterias GFAJ-1. Imagen de Wikipedia.

Por algún motivo que desconozco, el estudio nunca ha sido retractado, cuando debería haberlo sido. Me alegro de que a Wolfe-Simon le vaya bien, pero desde el principio el suyo fue un caso de ciencia contaminada: no descubrió el GFAJ-1 por casualidad, sino que estaba previamente convencida de la existencia de bacterias basadas en el arsénico, algo que ya había predicado antes en conferencias y que le hizo ganar cierta notoriedad. El siguiente paso era demostrar que tenía razón, fuera como fuese.

Hoy seguimos sin segundo génesis terrestre. Y su ausencia es una razón que a algunos nos aparta de esa idea tan común sobre la abundancia de la vida alienígena. Afirmar que el hecho de que estemos aquí implica que la vida debe de ser algo muy común en el universo es sencillamente una falacia, porque no lo implica en absoluto. Es solo pensamiento perezoso; una idea que cualquiera puede recitar si le ponen en la boca un micrófono de Antena 3 mientras se compra unos pantalones en Zara, pero que si se piensa detenidamente y sobre argumentos científicos, no tiene sustento racional.

Pensémoslo un momento: si creemos que la vida es omnipresente en el universo, esto equivale a suponer que dado un conjunto de condiciones adecuadas para algún tipo de vida, por diferentes que esas condiciones fueran de las nuestras y que esa vida fuera de la nuestra, esta aparecería con una cierta frecuencia apreciable.

Pero la Tierra es habitable desde hace miles de millones de años. Y sin embargo, esa aparición de la vida solo se ha producido una vez, que sepamos hasta ahora. Si suponemos que los procesos naturales han actuado del mismo modo en todo momento (esto se conoce como uniformismo), debería haber surgido vida en otras ocasiones; debería estar surgiendo vida nueva hoy. Y hasta donde sabemos, no es así. Hasta donde sabemos, solo ha ocurrido una vez en 4.500 millones de años.

¿Por qué? Bien, podemos pensar que el uniformismo no es una regla pura, dado que sí han existido procesos excepcionales, como episodios globales de vulcanismo o impactos de grandes asteroides que han cambiado drásticamente las reglas del juego de la vida. Esto se conoce como catastrofismo, y la situación real se acerca más a un uniformismo salpicado con algunas gotas esporádicas de catastrofismo.

Pero si aceptamos que el catastrofismo fue determinante en el comienzo de la vida en la Tierra, la conclusión continúa siendo la misma: si deben darse unas condiciones muy específicas e inusuales, una especie de tormenta bioquímica perfecta, entonces estamos también ante un fenómeno extremadamente raro, que en 4.500 millones de años no ha vuelto a repetirse. De una manera o de otra, llegamos a la conclusión de que la vida es algo muy improbable. Desde el punto de vista teórico, para que la idea popular tenga algún viso de ser otra cosa que seudociencia debería antes refutarse la hipótesis nula (una explicación sencilla aquí).

A lo anterior hay una salvedad, y es la posibilidad de que la “biosfera en la sombra” (un término ya acuñado en la biología) procedente de un segundo génesis fuera eliminada por selección natural debido a su mayor debilidad, o sea eliminada una y otra vez, por muchos génesis que se produzcan sin siquiera enterarnos.

Esta hipótesis no puede descartarse a la ligera, pero tampoco darse por sentada: si en su día la existencia de algo como la bacteria GFAJ-1 no resultaba descabellada, es porque la idea de una biosfera extremófila en la sombra es razonable; una segunda línea evolutiva surgida en un nicho ecológico muy marginal, como el lago Mono, tendría muchas papeletas para prosperar, quizá más que un invasor del primer génesis pasando por un trabajoso proceso de adaptación frente a un competidor especializado. Y sin embargo, hasta ahora el resultado de la búsqueda en los ambientes más extremos de la Tierra ha sido el mismo: nada. Solo parientes nuestros que comparten nuestro único antepasado común.

Si pasamos de la teoría a la práctica, es aún peor. Hasta hoy no tenemos absolutamente ni siquiera un indicio de que exista vida en otros lugares del universo. En la Tierra la vida es omnipresente, y no se esconde. Nos encontramos con pruebas de su presencia a cada paso. Incluso en el rincón más remoto del planeta hay testigos invisibles de su existencia, porque en el rincón más remoto del planeta uno puede encender un GPS o un Iridium y recibir una señal de radio por satélite. Si el universo bullera de vida, bulliría también de señales. Y sin embargo, si algo sabemos es que el cosmos parece un lugar extremadamente silencioso.

Como respuesta a lo anterior, algunos científicos han aportado la hipótesis de que la vida microbiana sea algo frecuente, pero que a lo largo de su evolución exista un cuello de botella complicado de superar en el que casi inevitablemente fracasa, impidiendo el progreso hacia formas de vida superiores; lo llaman el Gran Filtro. Otros investigadores sugieren que tal vez la Tierra haya llegado demasiado pronto a la fiesta, y que la inmensa mayoría de los planetas habitables todavía no existan. Pero también con estas dos hipótesis llegamos a la misma conclusión: que en este momento no hay nadie más ahí fuera.

Pero esto es ciencia, y eso significa que aquello que nos gustaría no necesariamente coincide con lo que es; y debemos atenernos a lo que es, no a lo que nos gustaría. Personalmente, I want to believe; me encantaría que existiera vida en otros lugares y quisiera vivir para verlo. Pero por el momento, aquello del “sí, claro, si nosotros estamos aquí, ¿por qué no va a haber otros?”, mientras alguien rebusca en los colgadores de Zara, no es ciencia, sino lo que en inglés llaman wishful thinking, o pensamiento ilusorio.

Claro que todo esto cambiaría si por fin algún día tuviéramos constancia de ese segundo génesis terrestre. Y aunque seguimos esperando, hay una novedad potencialmente interesante. Un nuevo estudio de la Universidad de Washington, el Instituto de Astrobiología de la NASA y otras instituciones, publicado en la revista PNAS, descubre que en la Tierra existió un episodio de oxigenación frustrado, previo al que después daría lugar a la aparición de la vida compleja.

Hoy sabemos que hace unos 2.300 millones de años la atmósfera terrestre comenzó a llenarse de oxígeno (esto se conoce como Gran Oxidación), gracias al trabajo lento y constante de las cianobacterias fotosintéticas. Los fósiles más antiguos de células eucariotas (la base de los organismos complejos) comienzan a encontrarse en abundancia a partir de unos 1.700 millones de años atrás, aunque aún se discute cuándo surgieron por primera vez. Pero si de algo no hay duda, es de que fue necesaria una oxigenación masiva de la atmósfera para que la carrera de la vida tomara fuerza y se consolidara.

Los investigadores han estudiado rocas de esquisto de entre 2.320 y 2.100 millones de años de edad, la época de la Gran Oxidación, en busca de la huella de la acción del oxígeno sobre los isótopos de selenio. La idea es que la oxidación del selenio actúa como testigo del nivel de oxígeno en la atmósfera presente en aquella época.

Lo que han descubierto es que la historia del oxígeno en la Tierra no fue un “nada, después algo, después mucho”, en palabras del coautor del estudio Roger Buick, sino que al principio hubo una Gran Oxidación frustrada: los niveles de oxígeno subieron para después bajar por motivos desconocidos, antes de volver a remontar para quedarse y permitir así el desarrollo de toda la vida que hoy conocemos.

Este fenómeno, llamado “oxygen overshoot“, ya había sido propuesto antes, pero el nuevo estudio ofrece una imagen clara de un episodio en la historia de la Tierra que fue clave para el desarrollo de la vida. Según Buick, “esta investigación muestra que había suficiente oxígeno en el entorno para permitir la evolución de células complejas, y para convertirse en algo ecológicamente importante, antes de lo que nos enseñan las pruebas fósiles”.

El interés del estudio reside en que crea un escenario propicio para que hubiera surgido una “segunda” biosfera (primera, en orden cronológico) de la que hoy no tenemos constancia, y que tal vez pudo quedar asfixiada para siempre cuando los niveles de oxígeno se desplomaron por causas desconocidas. Pero Buick deja claro: “esto no quiere decir que ocurriera, sino que pudo ocurrir”.

E incluso asumiendo que la propuesta de Buick fuera cierta, en el fondo tampoco estaríamos hablando de un segundo génesis, sino de un primer spin-off frustrado a partir de un único génesis anterior; las bacterias, los primeros habitantes de la Tierra, ya llevaban por aquí cientos de millones de años antes del oxygen overshoot. El estudio podría decirnos algo sobre la evolución de la vida, pero no sobre el origen de la vida a partir de la no-vida, la abiogénesis, ese gran problema pendiente que muchos dan por resuelto, aunque aún no tengamos la menor idea de cómo resolverlo.

Los Nobel de Física y Química premian los chips prodigiosos

Si no fuera porque no es así como funciona, se diría que los comités de los Nobel de Física y Química de este 2016 se han puesto de acuerdo para premiar un mismo campo, las nanocosas del nanomundo. Dirán ustedes que gran parte del trabajo de la física, la química y la biología consiste precisamente en indagar en todo aquello que no podemos ver a simple vista, y no se equivocarán. Si fuera posible miniaturizarnos –esta semana volví a ver aquella divertida película de Dante y Spielberg, El chip prodigioso–, la naturaleza no tendría misterios para nosotros. No habría nada que investigar; bastaría con abrir los ojos y ver qué pasa.

Fotograma de la película 'El chip prodigioso' (1987). Imagen de Warner Bros.

Fotograma de la película ‘El chip prodigioso’ (1987). Imagen de Warner Bros.

Pero dentro de todo ello, hay un área transversal de la ciencia que se dedica específicamente a explorar cómo es el paisaje a esa escala diminuta, cómo son sus montañas, valles y costas, y a fabricar aparatos que puedan desenvolverse en ese entorno de lo diminuto del mismo modo que lo hace un rover en Marte. No es un minimundo ni micromundo, ya que el prefijo “micro” comprende los tamaños en el rango de la célula y sus partes. La unidad de medida allí es el nanómetro, la millonésima de milímetro, y desde ahí hacia abajo. En algún momento, los científicos comenzaron a referirse a ese mundo añadiéndole un “nano”: nanotecnología, nanoingeniería, nanociencias.

Nuestro mundo tiene sus formas, lo que llamamos el relieve topográfico. Esas formas pueden cambiar a lo largo del tiempo debido a fuerzas de la naturaleza, pero siguiendo ciertas reglas: cuando en una montaña se ha horadado una cueva, un derrumbamiento podrá hacerla desaparecer, pero la montaña no puede deshoradarse y volver a quedar como estaba. Y un río no puede correr sobre la cumbre de una montaña.

Hay una rama de las matemáticas que estudia las formas, o topos, y cómo pueden transformarse unas en otras a través de transiciones permitidas: por ejemplo, se puede deformar, pero no cortar y pegar. Una hoja de papel puede convertirse en una silla de montar, pero no en una bola. La topología se aplica a áreas de las matemáticas como el álgebra y la geometría, pero también a la física.

El funcionamiento de la materia está relacionado con su estructura. Por ejemplo, un metal conduce la electricidad porque permite el libre movimiento de los electrones. Algunos físicos exploran las fronteras de ese nanomundo, los límites exóticos de la materia donde aparecen propiedades inusuales; por ejemplo, los semiconductores o los superconductores. Como los paisajes, esa materia tiene sus formas y sus reglas, lugares inaccesibles por donde un río no puede discurrir, o un electrón no puede moverse. De la aplicación de la topología a estas formas exóticas de la materia y a sus cambios (como de sólido a líquido) pueden aprovecharse algunas de esas propiedades raras. La capacidad de manipular y controlar a voluntad la conductividad de un material es la base de toda la tecnología electrónica que utilizamos hoy.

El Nobel de Física 2016 ha premiado a los británicos (los tres trabajando en EEUU) David Thouless, Michael Kosterlitz y Duncan Haldane por haber sentado en los años 70 y 80 las bases de esa topología de la materia exótica y de sus transiciones de fase. Por cierto que el padre de Kosterlitz, Hans, bioquímico, se quedó a un paso del Nobel como uno de los descubridores de las endorfinas.

En ese nanopaisaje, a partir de los años 80 algunos investigadores empezaron a construir máquinas, sistemas formados por piezas que se mueven cuando se les aplica energía, del mismo modo que una batidora gira cuando se enchufa a la red eléctrica. Las piezas de estas máquinas son moléculas, diseñadas con una forma específica que les permite desempeñar la función deseada una vez que ocupan su lugar, tal como hacen los ingenieros industriales. La primera de estas piezas, obra del francés Jean-Pierre Sauvage en 1983, era una simple cadena de dos eslabones que permitía el movimiento libre.

La nanoingeniería de máquinas se inspira en la propia naturaleza. Unos años antes habían comenzado a descubrirse los primeros nanomotores (máquinas rotativas) naturales, comenzando por el flagelo que emplean algunas bacterias para propulsarse en el agua y que consiste en un mecanismo giratorio. En 1991, el escocés Fraser Stoddart logró construir un nanoanillo que podía girar y desplazarse alrededor de un eje. Ocho años después, el holandés Bernard Feringa construía el primer nanomotor, una especie de ventilador de una sola aspa.

Sauvage, Stoddart y Feringa han sido premiados con el Nobel de Química 2016. Desde entonces se han construido nuevas nanomáquinas, como nanoascensores o nanocarretillas. Algunas de ellas se inspiran en mecanismos previamente inventados por la naturaleza; por ejemplo, nuestros músculos funcionan gracias a una nanomáquina deslizante, un sistema similar al que también sirve para que nuestras células expulsen al exterior ciertas sustancias, como moléculas de defensa contra infecciones.

Nanocoche Nanobobcat, de la Universidad de Ohio. Imagen de OU.

Nanocoche Nanobobcat, de la Universidad de Ohio. Imagen de OU.

Se espera que en el futuro una de las principales aplicaciones de las nanomáquinas sea la medicina. Como en El chip prodigioso, pero con un Dennis Quaid molecular. También servirán para usos como construir nuevos sensores y sistemas de almacenamiento de energía. Por el momento, una de las ramas más sorprendentes de la nanoingeniería es la fabricación de nanocoches, máquinas capaces de desplazarse sobre una superficie utilizando una fuente de energía, por ejemplo la luz.

De hecho, este año se celebrará en Toulouse (Francia) la primera carrera mundial de nanocoches, como expliqué con detalle en un reportaje a finales del año pasado. Varios laboratorios del mundo han presentado sus prototipos de lo más variado, como una versión nanoscópica de Los autos locos. Estaba previsto que la carrera se celebrara el 14 y 15 de este mes, pero los organizadores han decidido posponerla para dejar algo más de tiempo a las nanoescuderías para que pongan a punto sus modelos, que deberán correr sobre una pista de oro en el vacío a -268 ºC.