Archivo de la categoría ‘Innovación’

China termina su inmenso buscador de aliens

A partir de septiembre, la atención de todos aquellos interesados en la búsqueda de vida alienígena inteligente se volverá hacia un remoto rincón del condado chino de Pingtang, en la provincia de Guizhou. Allí, el Observatorio Astronómico Nacional de la Academia China de Ciencias acaba de anunciar la colocación del último de los 4.450 paneles triangulares del Telescopio Esférico de Apertura de 500 Metros (conocido por sus siglas en inglés como FAST), el que desde ahora es el mayor radiotelescopio del mundo de plato único y reflector primario fijo.

El radiotelescopio FAST (China). Imagen de NAOC.

El radiotelescopio FAST (China). Imagen de NAOC.

El telescopio será un instrumento de investigación astronómica abierto a la colaboración internacional en todo tipo de proyectos. Sin embargo, sus responsables han precisado que uno de sus objetivos será la búsqueda de posibles señales de radio de origen inteligente, emulando a la que hasta ahora ha sido la mayor instalación del mundo del mismo tipo, el radiotelescopio de Arecibo en Puerto Rico, de 300 metros de diámetro.

Aunque la construcción ha durado cinco años, con una inversión de 167 millones de euros, el origen del proyecto se remonta a 1994. La idea era seguir el modelo de Arecibo, donde el plato esférico está acostado en una hoya cárstica natural, lo que facilita la construcción, el drenaje y el mantenimiento. Los ingenieros chinos recorrieron el país hasta dar con un paisaje similar, una remota hondonada sin apenas interferencias de radio donde 65 aldeanos vivían sin electricidad y desconectados del mundo.

Naturalmente, los aldeanos debieron ser desalojados, junto con casi otros 10.000 que vivían en los alrededores. Y naturalmente, tratándose de China, los medios oficiales informaron de lo contentos que estaban los habitantes locales de abandonar sus hogares para dejar paso a aquella gran obra de ingeniería y ciencia. Según la agencia Xinhua, “los habitantes de las comunidades cercanas admiraron su suerte, diciendo que debían estar agradecidos a los aliens”. Los aldeanos fueron reubicados en otras poblaciones.

El FAST tiene algunas diferencias con Arecibo. En primer lugar, el reflector primario de Puerto Rico es totalmente fijo y esférico, mientras que la superficie del FAST es deformable en parábola, como los platos de los radiotelescopios orientables. En realidad esto reduce la apertura efectiva (la superficie útil) a algo más de 300 metros. Es decir, que si estuviera en España, probablemente se le llamaría el radiotelescopio de las dos mentiras: ni es esférico, ni tiene 500 metros de apertura. Existe otro radiotelescopio individual aún mayor, el RATAN-600 de Rusia, de 576 metros de diámetro, pero este no está compuesto por una superficie única, sino por 895 paneles rectangulares orientables por separado.

Vista parcial del radiotelescopio de Arecibo (Puerto Rico). Imagen de Javier Yanes.

Vista parcial del radiotelescopio de Arecibo (Puerto Rico). Imagen de Javier Yanes.

Para que se hagan una idea de la comparación de dimensiones entre estos telescopios, he hecho esta composición de imágenes de Google Earth, todas ellas correspondientes a una altura del punto de vista de dos kilómetros. Para apreciar la escala, incluyo una imagen de lo más próximo que tenemos por aquí, la estación de la Deep Space Communications Network en Robledo de Chavela (Madrid), y añado también una vista del centro de Madrid y otra del puerto de Barcelona a la misma escala.

Comparación de tamaños a escala del FAST, Arecibo, RATAN-600, la estación de seguimiento de Robledo de Chavela, el centro de Madrid y el puerto de Barcelona. Imágenes de Google Earth, altura del punto de vista: dos kilómetros.

Comparación de tamaños a escala del FAST, Arecibo, RATAN-600, la estación de seguimiento de Robledo de Chavela, el centro de Madrid y el puerto de Barcelona. Imágenes de Google Earth, altura del punto de vista: dos kilómetros.

El FAST comenzará próximamente sus primeras pruebas para la puesta a punto y el debugging, y está previsto que en septiembre comience a operar. Con esta gran instalación, China prosigue en su revolución científica que pretende situar al país a la cabeza de la ciencia mundial en 2049, con el centenario de la fundación de la República Popular. Esperemos que también mejore la transparencia informativa para que, si algún día realmente llegan a encontrar algo que pueda ser un indicio de algo, todos podamos enterarnos.

¿Fabricamos una célula humana o viajamos a Alfa Centauri?

Hoy en día, obtener una célula humana gobernada por un genoma sintético está tan al alcance de nuestra tecnología como viajar a Alfa Centauri. Y no digamos ya un “ser humano de laboratorio”, como se está publicando por ahí. Esto es hoy tan viable como fabricar los androides de la saga Alien, o los robots de Inteligencia Artificial. O para el caso, construir la Estrella de la Muerte.

Una célula de piel humana (queratinocito). Imagen de Torsten Wittmann, University of California, San Francisco / Flickr / CC.

Una célula de piel humana (queratinocito). Imagen de Torsten Wittmann, University of California, San Francisco / Flickr / CC.

Para quien no sepa de qué estoy hablando, resumo. A mediados del mes pasado, el New York Times divulgó la celebración de una reunión “privada” en la Facultad de Medicina de Harvard, que congregó a unos 150 expertos para debatir sobre la creación de un genoma humano sintético. Solo por invitación, sin periodistas y sin Twitter. Como no podía ser de otra manera, esto inflamó las especulaciones conspiranoicas en internet: los científicos quieren crear seres humanos “de diseño” al margen de la ley y la ética.

Pero para quien sepa cómo suelen funcionar estas cosas, todo tenía su explicación. Aún no se había hecho pública la propuesta formal, que era precisamente uno de los objetivos de la reunión, y que estaba en proceso de anunciarse en la revista Science. No es un caso de conspiración, sino de torpeza: los organizadores deberían haber imaginado cuáles serían las reacciones. Claro que tal vez era eso lo que buscaban; un poco de intriga con fines publicitarios nunca viene mal.

Por fin, la propuesta se publicó en Science el pasado viernes. El llamado Proyecto Genoma Humano – Escritura (PGH-escritura) nace con la idea de impulsar el progreso en la construcción de largas cadenas de ADN. Como dice la propia propuesta, “facilitar la edición y síntesis de genomas a gran escala”.

El objetivo primario del PGH-escritura es reducir más de mil veces los costes de fabricación y ensayo de grandes genomas (de 0,1 a 100.000 millones de pares de bases) en líneas celulares en los próximos diez años. Esto incluirá la ingeniería de genomas completos en líneas celulares humanas y otros organismos de importancia en salud pública y agricultura, o de aquellos necesarios para interpretar las funciones biológicas humanas; es decir, regulación génica, enfermedades genéticas y procesos evolutivos.

La biología sintética marca una nueva era en la ciencia de la vida: después de descubrir, recrear para crear. Naturalmente, esto no implica que ya esté todo descubierto. Pero hoy ya conocemos lo suficiente, y disponemos de la tecnología necesaria, como para hacer lo que el género humano lleva haciendo cientos de miles de años: aprovechar los recursos disponibles para fabricar piezas con las que construir dispositivos. Y quien tenga alguna objeción a esta práctica, que apague de inmediato el aparato en el que está leyendo estas líneas.

Dado que en la célula todo procede del ADN, la biología sintética busca reinventar el genoma. En el primer escalón de esta ingeniería se encuentran las bacterias, organismos simples unicelulares, sin núcleo y con solo un pequeño cromosoma circular, una cinta de ADN unida por sus extremos.

Como conté hace un par de meses, un equipo de investigadores dirigido por el magnate de la biotecnología J. Craig Venter lleva varios años tratando de construir un cromosoma bacteriano cien por cien artificial que sea capaz de dar vida a una bacteria a la que se le ha extirpado el suyo propio. Este es un logro de enorme complejidad técnica, aunque hoy al alcance de la mano.

Pero de la célula procariota, como la bacteriana, a la eucariota, como las nuestras, el salto es cósmico. Nuestras células custodian su ADN en un núcleo enormemente complejo, donde el ADN está enrollado y vuelto a enrollar con la ayuda de unas complicadas estructuras empaquetadoras que lo condensan o lo descondensan según lo necesario en cada momento. Ya expliqué aquí que cada una de nuestras células contiene un par de metros de ADN. A lo largo del ciclo que lleva a la división en dos células hijas, cada cromosoma fabrica una copia de sí mismo, que luego se separa de la original para que cada célula resultante tenga su juego. Y esto para un total de 23 pares de cromosomas dobles. Frente a los 531.000 pares de bases de la bacteria de Venter, el genoma humano tiene unos 3.000 millones; es decir, es más de 5.600 veces más largo.

La idea de construir genomas humanos estaba ya presente antes incluso de lo que ahora tal vez deberá llamarse el Proyecto Genoma Humano – Lectura. En 1997 se publicó el primer microcromosoma humano sintético, un pequeño elemento construido a imagen y semejanza de nuestros cromosomas, con capacidad para añadirse a los normales de la célula. Así que la biología sintética humana lleva ya funcionando más de un par de decenios.

Claro que, por todo lo dicho arriba, la conclusión de muchos investigadores es que el sistema cromosómico humano es demasiado complejo como para que sea posible y merezca la pena recrearlo con nuestro conocimiento actual, por lo que la vía de los cromosomas sintéticos no ha prosperado demasiado. Hoy los esfuerzos se centran más en modificar que en crear: sustituir grandes fragmentos de ADN para corregir, mejorar o investigar. Un campo que lleva también décadas explorándose con diferentes herramientas y bajo distintos nombres, incluyendo el de terapia génica.

Así pues, nada nuevo bajo los fluorescentes del laboratorio. Nada en lo que no se esté trabajando ya en innumerables centros de todo el mundo, sin cornetas ni pregones. ¿En qué se basa entonces la novedad del proyecto? Lo que pretenden los investigadores es crear un marco que permita estructurar nuevas colaboraciones y concentrar recursos, para que sea posible sintetizar y manejar fragmentos de ADN cada vez más grandes. En un futuro no muy lejano, es concebible que se llegue a disponer de genotecas sintéticas (en el argot llamadas librerías, aunque sería más correcto hablar de bibliotecas) del genoma humano completo: todo el ADN de los 24 tipos de cromosomas humanos (22 autosomas, más el X y el Y) construido a partir de sus bloques básicos y repartido en trozos en diferentes tubitos, en un formato que permita utilizar grandes fragmentos como piezas de recambio.

Pero olvídense de la idea de una célula humana funcionando con un genoma “de laboratorio”. Esto es ciencia ficción y continuará siéndolo durante muchos años. Y los replicantes son hoy algo tan lejano como Alfa Centauri. ¿Y por qué Alfa Centauri? No es un ejemplo elegido al azar. Mañana lo explicaré.

Vídeo en streaming a través de la carne

Tal vez recuerden una película de los años 60 titulada Viaje alucinante (Fantastic Voyage), en la que un submarino y su tripulación científica eran reducidos a un tamaño microscópico para introducirse por vía intravenosa (si no recuerdo mal) en el organismo de un tipo y salvarle la vida. Y quienes no la recuerden tal vez tengan pronto la ocasión de conocerla, si se confirma un posible remake que al parecer dirigirá Guillermo del Toro. Esto sin contar la inevitable recreación que hicieron Los Simpson.

Imagen de Twentieth Century Fox.

Imagen de Twentieth Century Fox.

No vengo a contarles que la premisa de la película está más cerca de hacerse realidad, pero sí una parte de ella: la posibilidad de introducir un sumergible –no tripulado, claro– en el cuerpo de alguien, dirigirlo a distancia desde el exterior y que transmita en directo vídeo en streaming de alta definición mostrándonos lo que ocurre por nuestros entresijos.

Esto ya no resulta tan descabellado. En los últimos años se viene hablando de las píldoras digitales, microchips que pueden tragarse y monitorizar los parámetros deseados dentro del organismo antes de ser expulsados por la puerta de salida habitual. Por otra parte, ciertos aparatos implantados en el interior del organismo ya pueden ser controlados desde el exterior a través de sistemas clásicos de ondas de radio. El uso del cuerpo humano como medio transmisor de ondas es un activo campo de investigación.

El problema con los sistemas actuales es que los seres vivos no somos muy buenos transmitiendo ondas de radio. Las frecuencias utilizables para aparatos médicos ocupan una estrecha franja y el ancho de banda es pequeño, por lo que las máximas velocidades de transmisión alcanzables están en torno a las 50 k o kbps (kilobits por segundo); una conexión ADSL normal, pongamos de 10 megas, es 200 veces más rápida.

Sistema experimental de transmisión de datos a través de lomo de cerdo. Imagen de Singer et al. / Universidad de Illinois.

Sistema experimental de transmisión de datos a través de lomo de cerdo. Imagen de Singer et al. / Universidad de Illinois.

Un equipo de investigadores de la Facultad de Ingeniería de la Universidad de Illinois está ensayando una solución infinitamente más conveniente: ultrasonidos. Al menos desde hace un siglo, con la invención del sónar, los humanos hemos aprovechado que el sonido se transmite mucho mejor bajo el mar que las ondas de radio. ¿Y qué es nuestro cuerpo sino agua salada con algunos ingredientes añadidos?

Con este enfoque, los investigadores ensayaron la transmisión de datos por ultrasonido a través de tejidos animales, los cuales obtuvieron de la carnicería local: un lomo de cerdo y un hígado de vaca. En su estudio, disponible en la web de prepublicaciones arXiv.org, los autores cuentan que lograron velocidades de entre 20 y 30 megas (Mbps), “demostrando la posibilidad de transmisión de datos a velocidad de vídeo en tiempo real a través del tejido”, escriben.

Según Andrew Singer, coautor del estudio, “podemos imaginar un dispositivo que pueda tragarse para tomar imágenes del tubo digestivo, con capacidad de transmitir vídeo HD en directo por streaming a una pantalla externa, y de modo que el dispositivo pueda controlarse a distancia externamente por el médico”. Aunque no es la primera vez que se ensaya la transmisión de datos a través de tejidos animales, nunca antes se había hecho a tal velocidad. Dice Singer: “Esta velocidad de transmisión es suficiente, por ejemplo, para ver Netflix”. La pega es que aún habrá que estudiar los posibles efectos de la transmisión de ultrasonidos a través de tejidos vivos.

Ahora sí: por fin, genomas a 1.000 dólares

Con el cambio de siglo llegó el primer borrador del genoma humano, un alucinante hito de la biología que lo cambiaba todo: era como completar el mapa de un tesoro del que hasta entonces solo existían trozos sueltos.

Imagen modificada de Wikipedia.

Imagen modificada de Wikipedia.

El proyecto finalizó en 2003 con la secuencia ya refinada. Aquel monstruoso esfuerzo costó una montaña de dinero cuyo valor total varía de unas fuentes a otras; como en otros megaproyectos que involucran tantos recursos, evaluar el coste final es como poner la cola al burro con los ojos tapados, pero quedémonos con una cifra que se maneja por ahí: 3.000 millones de dólares.

Los métodos de secuenciación de ADN que se emplearon en el Proyecto Genoma Humano databan de los años 70. Hasta entonces no existió una motivación práctica (léase, económica) que empujara el avance de estas tecnologías. Fue el propio proyecto el que impulsó la búsqueda de nuevos sistemas más rápidos y baratos, y el resultado es que la tecnología de secuenciación ha dado un salto como el de aquellos primeros ordenadores personales de metro cúbico a los actuales smartphones.

El objetivo final era lograr secuenciar el genoma completo de una persona por menos de 1.000 dólares: la democratización de la genómica y, con ella, la transición hacia la medicina molecular personalizada. Algo que no será inmediato, porque la interpretación de la información genómica apenas está aprendiendo a balbucear.

Aún hace un año la compañía californiana Illumina, el principal fabricante de secuenciadores de ADN del mundo, ofrecía un servicio de secuenciación de genomas personales por 4.900 dólares, ya muy cerca de la marca simbólica de los 1.000 dólares. Pero como entonces me contó el director del Centro Nacional de Análisis Genómico, Ivo Glynne Gut, ya era posible secuenciar un genoma humano por menos de 1.000 dólares. De hecho, la propia Illumina ya había batido esta marca con el lanzamiento el año anterior de una nueva plataforma de secuenciación.

Ahora bien, este coste se aplicaba a la obtención de genomas para investigación, aún no en un grado clínico. Un ejemplo es el Personal Genome Project, un proyecto de investigación que el año pasado admitió a 5.000 participantes con un coste por genoma inferior a los 1.000 dólares.

Esta semana por fin se ha producido el anuncio del primer servicio al consumidor de secuenciación de genomas completos por debajo de la marca de los 1.000 dólares; en concreto, 999, como en las etiquetas de los precios del súper. Al cambio actual, unos 910 euros. La compañía responsable es Veritas Genetics, cofundada por el genetista de Harvard George Church, uno de los impulsores del Proyecto Genoma Humano y director del Personal Genome Project.

Por este precio, la oferta myGenome de Veritas incluye no solo el genoma completo, sino también herramientas digitales para manejarlo, así como un servicio de asesoramiento y consejo genético accesible por videoconferencia. Con dos limitaciones: la primera es que por el momento Veritas solo atenderá a clientes de Estados Unidos, aunque la compañía planea ampliar su mercado a otros países en los próximos meses.

La segunda condición es que todos los encargos deben contar con prescripción médica, una obligación que también impone el servicio de Illumina. Esta es la única manera de certificar que la solicitud viene motivada y que es genuina. Pero por mucho que se respeten escrupulosamente los procedimientos, la nueva era ya inaugurada de los genomas a 1.000 vuelve a rescatar los viejos escollos éticos y legales aún sin resolver.

No se trata solo de la posible discriminación genética, algo a lo que los movimientos anti-ciencia ya se encargarán de poner nombre (¿Gattaca?). También se trata de que, por mucha era genómica, cada individuo tiene completo derecho a su libertad de vivir ignorando si posee alguna variante genética que pueda complicarle el futuro. Y esta libertad desaparece si su hermano/a, p/madre o hija/o decide, también libremente, que quiere conocer con detalle todo su perfil genético.

¿Qué haremos entonces? Los científicos ya han hecho su trabajo. Ahora les toca a otros.

¿Tendremos en octubre un Nobel español de ciencia?

Quédense con este nombre: Francisco Juan Martínez Mójica, un investigador de la Universidad de Alicante que desde el pasado 14 de enero viene recibiendo una atención inusitada por parte de los medios. Inusitada porque la línea de investigación de Mójica nace de un campo de enorme interés científico –la genética de los microbios extremófilos–, pero que difícilmente traspasa las fronteras más allá de lugares como este blog, en un país donde la ciencia apenas capta la atención del gran público salvo cuando se trata de grandes titulares sobre, pongamos, el cáncer.

Las salinas de Santa Pola, donde comenzó la historia de CRISPR. Imagen de Wikipedia.

Las salinas de Santa Pola, donde comenzó la historia de CRISPR. Imagen de Wikipedia.

Pero tan inusitada como merecida, porque esa línea de investigación llevaría a Mójica a convertirse en la estrella de la revolución del siglo XXI en ingeniería genética, que lleva el nombre de CRISPR. O mejor dicho, esa línea y otra cosa; porque desgraciadamente para un científico alicantino trabajando en la Universidad de Alicante, por brillante que sea, se requiere un empujoncito más. Y como ahora contaré, por fortuna Mójica ha recibido ese empujoncito más que se revelará clave si finalmente el investigador se convierte en el primer Nobel español de ciencia desde Ramón y Cajal (siempre debo añadir esta coletilla: Severo Ochoa llevaba 23 años fuera de España y tres como ciudadano estadounidense cuando ganó el Nobel).

Mójica comenzó su tesis doctoral investigando por qué una arquea (microbios que no son bacterias, aunque lo parezcan) de las salinas de Santa Pola se veía afectada de distinta manera por las enzimas de restricción (herramientas utilizadas para cortar el ADN por lugares deseados) en función de la concentración de sal en el medio de cultivo. A primera vista esta línea de trabajo parecería algo muy alejado de convertirse en la próxima revolución genética; sin embargo, las principales herramientas moleculares empleadas en los laboratorios han nacido del estudio de las bacterias y sus virus, como es el caso de las propias enzimas de restricción.

Al estudiar el genoma de esta arquea, llamada Haloferax mediterranei, Mójica descubrió que llevaba una curiosa marca, compuesta por secuencias repetidas y separadas por otros fragmentos dispares; un patrón que implicaba probablemente una función determinada, aunque desconocida. El investigador descubrió estas mismas estructuras en otras arqueas, y supo también que un grupo de la Universidad de Osaka, en Japón, ya había descrito en 1987 unas estructuras similares en otro microbio biológicamente más relevante, la bacteria Escherichia coli. Mójica y sus colaboradores publicaron estas secuencias en 1995 y llamaron a los fragmentos repetidos TREPs, por secuencias Palindrómicas (que se leen igual al derecho y al revés) Extragénicas (fuera de los genes) Repetidas en Tándem (varias veces).

Aún se desconocía cuál era la función de estos pedazos de genoma bacteriano o arqueano. Mójica y sus colaboradores sugerían en su estudio que podían controlar la distribución de las copias del genoma en las células hijas cuando la bacteria o la arquea se dividen, una hipótesis que resultaría equivocada.

Por entonces Mójica había terminado su tesis doctoral y se marchó al extranjero para completar un corto postdoctorado en Oxford, antes de regresar a la Universidad de Alicante. Ante la posibilidad de que las secuencias descubiertas participaran en la división de copias del genoma, por aquellos años Mójica se dedicó a estudiar la influencia de las TREPs en la topología del ADN, es decir, su forma.

De vuelta en Alicante, comenzó a examinar y comparar los genomas de otros microbios. En 2000, Mójica y sus colaboradores describían la identificación de estas secuencias en una veintena de especies. En aquel estudio proponían un nuevo nombre: Repeticiones Cortas Regularmente Espaciadas, o SRSRs. Aún sin pistas claras sobre su función: “Surge la pregunta sobre si las SRSRs tienen una función común en procariotas [bacterias y arqueas], o si su presencia es un resto de secuencias antiguas y su papel se diversificó a lo largo de la evolución”, escribían.

Por entonces estas secuencias ya captaban la atención de los microbiólogos. Otros investigadores descubrían secuencias SRSRs en diferentes especies y localizaban además genes funcionales próximos a ellas, a los que se les suponía una función relacionada con estas estructuras. En 2002, un equipo de la Universidad de Utrecht (Países Bajos) publicaba un estudio que rebautizaba las SRSRs como Repeticiones Palindrómicas Cortas Agrupadas y Regularmente Espaciadas, o CRISPR, además de identificar estos Genes Asociados a CRISPR, o genes cas.

En el estudio, y esto es importante, Ruud Jansen y sus colaboradores escribían: “Cada miembro de esta familia de repeticiones ha sido designado de forma diferente por los autores originales, llevando a una nomenclatura confusa. Para reconocer la reunión de esta clase de repeticiones como una familia y evitar nomenclatura confusa, Mójica y colaboradores y nuestro grupo hemos acordado utilizar en este estudio y en futuras publicaciones el acrónimo CRISPR”. Según trascendió después, fue el propio Mójica quien sugirió la nueva designación, pero esta apareció por primera vez en un estudio firmado por un equipo holandés.

Fue a continuación cuando llegó el gran salto cualitativo. En 2003 Mójica decidió cambiar el foco: en lugar de investigar las secuencias repetidas, las que habían permitido identificar las CRISPR, se preguntó qué demonios pintaban allí los fragmentos que las separaban, y que eran diferentes de unos microbios a otros. Y al estudiar un espaciador de una bacteria E. coli, descubrió que era idéntico a un trozo del genoma de un virus que infecta a esta bacteria, llamado fago P1. Pero con una peculiaridad: la E. coli que llevaba aquel separador era inmune al fago P1.

Este fue el eureka. Y este es el verdadero mérito que hace a Mójica merecedor del Nobel: al estudiar otros varios miles de espaciadores, descubrió que en todos los casos se trataba de secuencias pertenecientes a virus bacteriófagos (que atacan a las bacterias) o a moléculas de ADN que saltan de unas bacterias a otras (llamadas plásmidos). Y que en todos los casos, las bacterias con aquellos espaciadores eran inmunes a los respectivos virus o plásmidos. Mójica había encontrado la función de los separadores y, por tanto, de las CRISPR: un sistema inmunitario adaptativo propio de las bacterias y arqueas.

La idea era genial. Y además, era cierta. Pero al principio nadie quería creerlo: el estudio de Mójica fue rechazado por la revista Nature sin siquiera revisarlo, y después por la revista PNAS, y luego por Molecular Microbiology, y por Nucleic Acid Research. Por fin en 2005 el estudio fue publicado por Journal of Molecular Evolution, pero no sin un largo proceso de revisión que duró todo un año.

Imagino lo que están preguntándose, y la respuesta es sí: para un grupo de cuatro científicos de la Universidad de Alicante, sin contar con las firmas de otros investigadores de instituciones más rimbombantes, es muy difícil publicar en Nature, aunque hayan descubierto la rueda. En ciencia también hay clases, y hay prejuicios.

Lo que sucedió luego ya no compete a este artículo: andando el tiempo, el sistema CRISPR sería aplicado por las investigadoras Emmanuelle Charpentier y Jennifer Doudna para crear un sistema de edición genómica (o corta-pega de fragmentos de ADN) preciso y precioso con el que ahora se plantean futuros logros como la curación de enfermedades genéticas, entre otras muchas aplicaciones de la que es, para todos sin excepción, la revolución genómica del siglo XXI. Charpentier y Doudna ganaron el premio Princesa de Asturias de Investigación 2015; pero sobre todo, recibieron los tres millones de dólares del Breakthrough Prize de Ciencias de la Vida.

¿Y Mójica?, se preguntarán. Pues bien: Mójica ha pasado como un completo desconocido hasta el pasado 14 de enero. Ese día, Eric S. Lander publicaba un artículo en la revista Cell titulado The Heroes of CRISPR (Los héroes de CRISPR). Lander escribía: “En los últimos meses, he buscado comprender la historia de CRISPR que se remonta a 20 años atrás, incluyendo la historia de las ideas y de las personas”. Y también escribía que en 2003 Mójica era “el claro líder en el naciente campo de CRISPR”. Y también: “El antes oscuro sistema microbiano, descubierto 20 años antes en unas salinas en España, era ahora el foco de números especiales en revistas científicas, titulares en el New York Times, start-ups biotecnológicas, y cumbres internacionales sobre ética. CRISPR había llegado”.

¿Qué importancia tiene esto? La respuesta es: toda. Este es el empujoncito al que me refería más arriba. Sepan que Cell es la revista de biología más importante del mundo. Sepan que Eric Lander es profesor del Instituto Tecnológico de Massachusetts (MIT), fundador del Instituto Broad del MIT y Harvard, codirector del Proyecto Genoma Humano y copresidente del Consejo Asesor de Ciencia y Tecnología del presidente Barack Obama. En resumen, Eric Lander es algo muy parecido a lo que solemos llamar Dios.

Y la palabra de Dios ha obrado su milagro. Traigo aquí una curiosa comparación por cortesía de la máquina del tiempo de internet, Wayback Machine. El 13 de diciembre de 2015, la entrada en la Wikipedia sobre CRISPR contaba la historia de esta tecnología haciendo una breve referencia al trabajo de Mójica, pero sin mencionar para nada su nombre. Un mes después, el 14 de enero, esta misma entrada ya incluía el nombre de Mójica, destacando además que fue él quien propuso el nombre de CRISPR. Desde la publicación del artículo de Lander, el nombre de Mójica ya aparece ampliamente ligado al descubrimiento de CRISPR, y los medios españoles se han volcado en destacar su figura y su contribución.

En resumen: ¿Habrá un premio Nobel para CRISPR? Sin duda; tal vez no este año, pero más tarde o más temprano. ¿Será Mójica uno de los premiados? Es difícil apostar. Lander ha conseguido que el nombre de Mójica pueda cotizar en el mercado de los Nobel, pero aquí solo he contado una parte de la historia: lo cierto es que hay otros investigadores con una relevante implicación en el camino de CRISPR.

El premio Nobel se concede como máximo a tres investigadores; Charpentier y Doudna parecen seguras, pero el tercer nombre podría estar en disputa. Al menos otro científico, el francés Gilles Vergnaud, llegó a la misma conclusión que Mójica sobre la inmunidad de las bacterias al mismo tiempo y de forma independiente, aunque su estudio se publicó un mes más tarde, y ya con el nombre de CRISPR acuñado por el alicantino. Otro candidato sería Feng Zhang, del MIT, quien optimizó el sistema como herramienta genómica y lo aplicó por primera vez a células humanas.

Mójica parece un candidato más adecuado que Vergnaud al ser quien primero identificó las CRISPR como una marca común en un gran número de especies microbianas e intuyó para ellas un significado biológico que resultó correcto; de hecho, el nombre del francés ha sido omitido en la página de la historia de CRISPR en la web del Instituto Broad. En cambio, la rivalidad de Zhang es más dura, ya que el sistema CRISPR no sería hoy lo que es sin su contribución. Tal vez el próximo octubre tengamos la solución. Y quizá, Lander mediante, un Nobel español.

¿Y si los aviones se pilotaran solos?

La semana pasada el visionario, tecnólogo y empresario Elon Musk, responsable de PayPal, SpaceX y Tesla Motors, y a quien algunos medios suelen definir como la versión real de Tony Stark, provocó cierto revuelo en internet cuando dijo: “En un futuro distante, los legisladores podrían prohibir los coches conducidos porque son demasiado peligrosos”. Musk pronunció esta frase en la Conferencia de Tecnología GPU, en San José (California), ante una audiencia de 4.000 personas durante un mano a mano con Jen-Hsun Huang, CEO de la compañía tecnológica NVIDIA, a propósito de la presentación de un ordenador de conducción autónoma desarrollado por esta empresa.

Ilustración del F 015 Luxury in Motion, el Mercedes autoconducido. Imagen de Mercedes-Benz.

Ilustración del F 015 Luxury in Motion, el Mercedes autoconducido. Imagen de Mercedes-Benz.

Musk no vaticinó que las calles y carreteras se llenarán de coches autoconducidos de la noche a la mañana; aclaró que será un cambio lento y que, si los vehículos autónomos estuvieran disponibles mañana mismo, la transición llevaría 20 años. También pronosticó que los legisladores se opondrán frontalmente a autorizar la circulación de estos coches, hasta que varios años de pruebas acumuladas les convenzan de su seguridad. Pero se mostró confiado en que esta evolución será inevitable. “Creo que llegará a ser algo normal. Antes había ascensoristas, y luego inventamos circuitería para que el ascensor supiera llegar a tu piso. Así serán los coches”, sugirió. A continuación se zambulló en su Twitter para precisar que “Tesla está decididamente a favor de que a la gente se le deje conducir sus coches, y siempre lo estará”, para luego añadir: “Sin embargo, cuando los coches autoconducidos sean más seguros que los conducidos por humanos, el público podría ilegalizar estos últimos. Espero que no”.

Lo cierto es que muchas compañías con tradición de saber en qué invierten su dinero, como Google, Mercedes-Benz o la propia Tesla, entre otras, están desarrollando este tipo de tecnologías de conducción autónoma. Aunque su comercialización se vea aún muy lejana, si hemos de juzgar por la tendencia, parece que los expertos creen viable que algún día las carreteras se llenarán de coches conduciendo solos, comunicándose y cooperando entre ellos sin intervención humana. Según Musk, lo más complicado será lograr que estos sistemas funcionen en la franja entre los 20 y los 80 kilómetros por hora, en entornos urbanos y suburbanos con peatones, ciclistas, mucho tráfico cruzado y demás interferencias. En cambio, el tecnólogo cree que será más sencillo conseguirlo en un escenario de carreteras y autopistas, por encima de los 80 km/h.

Un tren automático de la línea 9 del metro de Barcelona. Imagen de Javierito92 / Wikipedia.

Un tren automático de la línea 9 del metro de Barcelona. Imagen de Javierito92 / Wikipedia.

Los sistemas de conducción automática llevan ya varios años introduciéndose con éxito en las redes de metro con distintos grados de autonomía, desde aquellos casos en los que el tren lleva un conductor que se encarga de abrir y cerrar las puertas y de supervisar el funcionamiento, hasta los casos en los que se prescinde por completo de la presencia humana, como en la lanzadera de la terminal T4 del aeropuerto de Barajas. Barcelona y Madrid se unen a la larga lista de ciudades del mundo que incorporan trenes automáticos, en la mayor parte de los casos aún con presencia de conductor. Pero parece evidente que el mayor obstáculo para que los trenes circulen sin maquinista ya no es tecnológico, sino psicológico: tal vez aún sea tranquilizador comprobar que al volante hay un ser humano. Sin contar con que habría muchos puestos de trabajo en peligro. Pero ¿qué habría ocurrido si el Alvia de la curva de Angrois hubiera circulado de forma autónoma?

Es evidente que el salto ahora es hacia arriba. Tirando de la última frase, el error humano está también detrás de la mayoría de los desastres aéreos, según datos de la web planecrashinfo.com. Aunque los expertos afirman que un avión no suele caer por una sola causa, sino más bien por una desafortunada concatenación, desde la década de 1950 el 53% de los accidentes aéreos se han debido a errores del piloto como razón primaria, ya sea única o unida a otras circunstancias meteorológicas o mecánicas que podrían haberse resuelto con un pilotaje más diestro. Por el contrario, los fallos mecánicos irresolubles fueron responsables del 20% de los accidentes. El resto se divide entre otras causas, como sabotajes u otros errores humanos, por ejemplo de mantenimiento o de control aéreo.

Merece la pena insistir: más de la mitad de todos los accidentes aéreos de la historia desde 1950 no se habrían producido sin el error humano. En la memoria quedan tragedias como la del mayor desastre en número de víctimas (583), el del aeropuerto tinerfeño de Los Rodeos en 1977, cuando dos Boeing 747 colisionaron en pista debido a un estúpido malentendido que llevó a un piloto a despegar cuando aún no tenía autorización. O el más reciente caso del vuelo de Spanair en 2008, cuyos pilotos trataron de levantar el vuelo con una configuración errónea de las alas. O la casi incomprensible caída al mar del vuelo 447 de Air France en 2009, causada porque un inexperto copiloto malinterpretó el comportamiento de su avión y se empeñó repetidamente en hacer justo lo contrario de lo que debía. Por no hablar de los casos en los que ha sido el piloto quien ha estrellado deliberadamente la nave, ahora de triste actualidad y de insólita frecuencia, ya que se sospecha que el vuelo de Malaysia Airlines desaparecido hace un año pudo sufrir un destino similar.

Ahora, cabría preguntarse no solo si la idea de confiar nuestra seguridad a aviones autoguiados es posible, sino también si es deseable. Respecto a esto último, el concepto espeluznará a muchos, y sería de esperar que contara con la repulsa general. Respecto a si es viable, el titular es que depende de quién opine. Según el piloto y bloguero Patrick Smith, la idea de que actualmente los aviones vuelan solos está “ridículamente alejada de la realidad”. “La prensa y los comentaristas repiten esta basura constantemente, y millones de personas llegan a creérselo”, escribe Smith.

Otros, como Stephen Rice, psicólogo especializado en ingeniería y concretamente en el factor humano de la aviación, aseguran que “la tecnología ya está ahí; los aviones modernos podrían despegar, volar y aterrizar solos”, según comentaba a la web BuzzFeed. En la misma línea, el director del programa de aviones no tripulados de la Universidad Estatal de Nuevo México, Doug Davis, señalaba a la BBC: “Creemos que los aviones no tripulados son la próxima gran transformación de la industria de la aviación”. Y recientemente era nada menos que el director general de tecnología de Boeing, John Tracy, quien afirmaba: “Con respecto a los aviones comerciales, no tenemos ninguna duda de que podemos resolver el problema del vuelo autónomo”.

El avión espacial Boeing X-37B en la base aérea de Vandenberg. Imagen de United States Air Force / Wikipedia.

El avión espacial Boeing X-37B en la base aérea de Vandenberg. Imagen de United States Air Force / Wikipedia.

El piloto automático ya ha cumplido los cien años. Los primeros sistemas rudimentarios se limitaban a mantener la altitud y el rumbo durante el vuelo de crucero. En 1930, la revista Popular Science Monthly informaba sobre un dispositivo que permitía “guiar un avión en su curso durante tres horas sin ayuda humana”. Los sistemas actuales, concebidos para casos de condiciones meteorológicas extremas, permiten incluso llevar un avión a tierra sin intervención directa de la tripulación, que puede limitarse a supervisar el proceso. El ejército de EE. UU. cuenta con el Boeing X-37B, un pequeño transbordador espacial no tripulado, y el Northrop Grumman X-47B, un avión de combate semiautónomo. Por supuesto, el “semi” no es un compromiso satisfactorio: ningún pasajero querría subir a un dron dirigido por control remoto; de haber un humano a los mandos, preferiríamos que compartiera nuestro destino, y no que abandonara los controles para irse a la sala de café cuando nosotros estamos a 30.000 pies de altura. Pero la británica BAE Systems ya ha probado su Jetstream autónomo por el espacio aéreo de Reino Unido con una tripulación humana que se limitaba a mirar.

Hoy todavía el piloto automático es como nuestros ordenadores personales; lo que el director del Instituto de Investigación en Inteligencia Artificial (IIIA) del CSIC, Ramón López de Mántaras, llama “sabios idiotas”. En el vuelo 447 de Air France, el error del copiloto se produjo después de que el sistema automático se desconectara porque la congelación de las sondas externas le impedía conocer los parámetros de vuelo, por lo que dejó el control en manos de los tripulantes. En casos como este, el factor humano es imprescindible, aunque en aquel caso concreto no hiciera sino empeorar la situación. Pero los avances en inteligencia artificial también se están aplicando a la aviónica, y ya se experimenta con sistemas capaces de aprender de la experiencia.

Tal vez toda esta cuestión no tendría mayor recorrido si las aerolíneas pudieran garantizarnos que siempre volaremos bajo el mando de un piloto veterano, experto, curtido en mil adversidades, emocionalmente estable y psicológicamente férreo. Pero obviamente no es así, y nunca lo será. Y si en el futuro se nos llegara a presentar la elección entre confiar nuestra seguridad a una máquina (supongamos que casi) perfecta o asumir la posibilidad de viajar a merced del capricho de un sujeto perturbado, profesional-personal-emocionalmente inmaduro al que le acaba de dejar la novia, este que suscribe no tendría ninguna duda.

ADN, el disco duro del futuro (II)… que durará dos millones de años

Esta es la gran paradoja de la información en la era digital: es imposible borrar nuestro rastro en internet, por mucho que nos empeñemos en lograrlo. Y sin embargo, podemos perder fácilmente nuestros archivos para siempre a causa de un error o una avería. Es más: ningún soporte físico digital está concebido para durar más de medio siglo. Ni discos duros, ni CD, ni DVD, ni memoria flash. Ninguno.

En cambio, conservamos códices medievales que han perdurado cientos de años, y que perdurarán cientos de años más. Tenemos manuscritos que han sobrevivido durante milenios. ¿De qué sirve digitalizar las pinturas de Altamira, si la versión digital deberá cambiarse de soporte sucesivamente para que no desaparezca, mientras el original pervivirá sin que nadie lo toque (especialmente si nadie lo toca)? ¿Acaso creemos que al digitalizar una obra antigua la estamos perpetuando?

De todo lo anterior podríamos llegar a deducir que el soporte del futuro no es otro que el papel. ¿Sorpresa? ¿Absurdo?

Pero el papel puede mojarse, quemarse o ser pasto de los bichos. Una pequeña trampa en el argumento anterior es que, en realidad, se supone que solo conservamos una pequeña parte de todo el papel que jamás se ha escrito o impreso. La inmensa mayoría se ha perdido.

Lo cierto es que, para descubrir mejores soportes de información que el papel y la electrónica, nada mejor que echar una mirada a nuestro entorno natural. La tecnología actual nos permite acceder a información que la naturaleza ha preservado durante cientos de miles de años, en forma de ADN en huesos fósiles. El investigador del Instituto Federal Suizo de Tecnología en Zúrich (ETH) Robert Grass lo explica así a Ciencias Mixtas: “Los libros más antiguos que conocemos tienen más de 1.000 años, y los jeroglíficos se han almacenado en la piedra durante varios miles de años. Este es un plazo largo, pero todavía corto si lo comparamos con los datos que podemos construir a partir del ADN de huesos arqueológicos, que llega hasta los 700.000 años de antigüedad”. Grass se refiere al logro de un equipo de investigadores de la Universidad de Copenhague (Dinamarca), que en julio de 2013 publicó en Nature la secuenciación del genoma de un caballo del Pleistoceno a partir de un hueso conservado en el permafrost de Canadá durante más de medio millón de años.

Ilustración artística del uso de ADN fósil. Imagen de Philipp Stoussel / ETH Zurich.

Ilustración artística del uso de ADN fósil. Imagen de Philipp Stoussel / ETH Zurich.

Grass se planteó el reto de conseguir lo mismo por una técnica artificial; fabricar un fósil capaz de conservar ADN intacto durante tanto tiempo que los procedimientos actuales de almacenamiento de información a largo plazo quedaran ampliamente sobrepasados. La respuesta fue el cristal: encapsular el ADN en esferas de sílice de unos 150 nanómetros, 0,15 milésimas de milímetro. Una vez construidos estos fósiles, y para analizar su durabilidad, Grass y sus colaboradores incubaron las partículas durante un mes a 60 o 70 ºC, lo que simula la degradación química que sufrirían a lo largo de cientos de años. Una vez terminado el tratamiento, los investigadores extrajeron el ADN de su caparazón de arena empleando soluciones de fluoruro como las que se utilizan en el grabado químico, para finalmente leer las secuencias y comprobar su integridad.

A partir de sus resultados, y comparándolos con la dinámica de degradación del ADN en el hueso, los investigadores han estimado cuánto tiempo podrían sobrevivir las muestras siendo aún legibles. Según exponen en su estudio, publicado en la revista Angewandte Chemie, a las temperaturas de Zúrich el ADN se conservaría durante 2.000 años, que aumentarían hasta 100.000 en el lugar más frío de Suiza. Pero si las esferas de sílice se almacenaran en el Banco Mundial de Semillas de Svalbard, una instalación subterránea en Noruega que se mantiene a -18 ºC, el ADN podría durar “más de dos millones de años”, escriben los científicos.

Claro que todo esto no tendría sentido si no fuera para conservar información que podamos codificar a voluntad en el ADN. En mi anterior post expliqué la aproximación más rudimentaria al uso del ADN como lenguaje, traducir la secuencia a proteína y utilizar los aminoácidos como alfabeto de 20 letras. Pero este método solo permite codificar textos; para ampliar sus aplicaciones a cualquier tipo de información, es esencial emplear código binario, el idioma en el que se escriben los archivos digitales. Como conté anteriormente, un grupo de jóvenes investigadores chinos presentó un sistema en 2010, pero no es el único. Ya en 1996 se publicó un método ideado por un interesante personaje llamado Joe Davis, conocido como el “científico loco” del Instituto Tecnológico de Massachusetts (MIT).

Davis ha desarrollado su carrera a caballo entre el arte y la ciencia, siempre en la frontera de la originalidad y la innovación. En la década de 1980, tuvo la idea de introducir en una bacteria una obra de arte digitalizada. Para ello creó Microvenus, un símbolo rúnico que es también una representación simplicada de los genitales femeninos. Lo que Davis hizo fue inspirarse en el sistema empleado por Carl Sagan y Frank Drake en el mensaje de Arecibo, una señal de radio lanzada al espacio en 1974: convertir el gráfico en un panel de ceros y unos, y luego encadenar las líneas para transformarlo en un código lineal. Para ello, era necesario que las dimensiones del gráfico original fueran el producto de dos números primos, con el fin de que su reconstrucción en 2D fuera unívoca. A continuación, Davis tradujo el código binario en bases de ADN empleando una equivalencia con un sistema de compresión y añadiendo la clave al comienzo del mensaje.

El icono Microvenus y su codificación en ADN. Nótese que su traducción gráfica a código binario se realiza en un panel de 5x7, ambos números primos. Imagen de Joe Davis / JSTOR Art Journal.

El icono Microvenus y su codificación en ADN. Nótese que su traducción gráfica a código binario se realiza en un panel de 5×7, ambos números primos. Imagen de Joe Davis / JSTOR Art Journal.

La segunda gran aportación del estudio de Grass es un nuevo sistema de codificación que extiende y mejora la idea de Davis. El investigador del ETH y sus colaboradores han creado un método que toma los caracteres de un texto de dos en dos, pero tratándolos como si cada uno fuera un byte (ocho bits), lo que permite aplicarlo a cualquier tipo de archivo digital. El siguiente paso es transformar el conjunto de dos bytes en base 256 (256²=65.536) en un triplete en base 47 (47³=103.823). ¿Y por qué en base 47? Muy sencillo: es necesario asignar a cada triplete de ADN (ver mi post anterior) un número distintivo para hacer la conversión. Como secuenciar y leer cadenas de ADN con muchas bases repetidas (como GGGGGGGGGG o TTTTTTTTTTT) aumenta las posibilidades de error, los científicos se quedaron solo con los tripletes en los que la segunda y la tercera base son distintas; así, AAC es válido, pero CAA no. De este modo, reducen las repeticiones a un máximo de tres: AAC CCG. Con esto, de los 64 tripletes posibles (variaciones con repetición de cuatro elementos tomados de tres en tres), se quedan solo con 48. Pero como el campo bidimensional de valores debe basarse en un número primo, eligieron el más próximo, 47.

Así, cada par de caracteres o bytes queda transformado en un trío de números del 0 al 46, los cuales a su vez se corresponden con tripletes de ADN. Pero para corregir los errores debidos a la degradación del ADN, la síntesis o la lectura, los investigadores introdujeron redundancias de datos mediante códigos de Reed-Solomon, herramientas muy utilizadas, por ejemplo, en comunicaciones espaciales y en la grabación de soportes digitales como discos duros y CD. Para entender cómo funcionan estos códigos, podemos pensar en los bits de paridad empleados antiguamente para transmitir código ASCII; un carácter ASCII se codifica en siete bits binarios (0/1), pero solía introducirse un octavo bit, llamado de paridad, que tomaba el valor de 0 o 1 según la suma del resto de bits iguales a 1 fuera par o impar. De este modo, se incorporaba un valor de comprobación para detectar errores en la transmisión. Otro ejemplo es el dígito de control de los números de las cuentas bancarias. Los códigos Reed-Solomon son más complejos, pero se inspiran en un principio similar.

Empleando este sistema, los científicos codificaron dos textos, la versión en latín del Pacto Federal de 1291 que daba forma a la primera confederación suiza, y la traducción inglesa de El Método de los teoremas mecánicos perteneciente al Palimpsesto de Arquímedes. Tras la síntesis del ADN codificado, su encapsulación en sílice y el tratamiento térmico, los investigadores encontraron cierto grado de degradación del ADN, pero los códigos Reed-Solomon funcionaron a la perfección para corregir los errores. “Por primera vez, mostramos en experimentos reales que formando fósiles artificiales alrededor de nuestra muestra de ADN, y añadiendo esquemas de corrección de errores a la información almacenada en el ADN, este almacenamiento a largo plazo es posible en la práctica”, concluye Grass.

Los científicos están pensando ya en aplicar su sistema a gran escala. “Estamos concibiendo la creación de una biblioteca de información digital para almacenamiento a largo plazo, pero por el momento es todavía un sueño, y requerirá dinero”, apunta Grass. Sin embargo, otras utilidades no resultan tan lejanas: los investigadores han ensayado el sistema para añadir cápsulas magnéticas fósiles de ADN a modo de marcas de agua genéticas o etiquetas de autenticidad en productos como gasolina, aceites cosméticos o aceite de oliva. Las partículas, que son inalterables y solo pueden retirarse mediante imanes en instalaciones especializadas, introducen un sistema de código de barras genético que sirve para evitar falsificaciones y perseguir el contrabando.

ADN, el disco duro del futuro

Emplear el ADN de un organismo vivo para guardar información ajena a su función biológica no es ciencia-ficción; ya se ha hecho. La bioencriptación es una de las líneas de investigación más innovadoras y divertidas de la biología molecular, pero con claras aplicaciones prácticas. Y es uno de esos ejemplos fronterizos de Ciencias Mixtas que tan bien encajan aquí. Además de ser un tema irresistible para fantasear sobre los avances futuros de la tecnología y cómo cambiarán el mundo que conocemos.

Para explicar cómo, empecemos dejando sentado algo evidente: el ADN es un código. Siempre que hablamos de genes o genomas, nos referimos a ristras de letras (más propiamente, bases) como aquella que daba título a una magnífica película: GATTACA. En este caso, se trata de una secuencia formada por Guanina-Adenina-Timina-Timina-Adenina-Citosina-Adenina. Este ejemplo comprende los cuatro tipos de bases que forman el ADN: G, A, T y C. Para convertir una cadena de ADN a proteína, el producto de los genes, existe una maquinaria celular que lleva a cabo un proceso de transcripción y traducción. En esta última, las bases de ADN se leen de tres en tres, formando tripletes llamados codones. Cada uno de estos tripletes se traduce en un aminoácido, los eslabones de las proteínas. Por ejemplo, en el título de la película tendríamos dos tripletes, GAT-TAC, y nos olvidamos de la A suelta. GAT corresponde al aminoácido llamado ácido aspártico, y TAC se traduce como tirosina.

La secuencia del ADN se puede utilizar para cifrar y conservar mensajes. Imagen de Miki Yoshihito / Flickr / CC.

La secuencia del ADN puede utilizarse para cifrar y conservar mensajes. Imagen de Miki Yoshihito / Flickr / CC.

Por simple combinatoria, las variaciones con repetición de cuatro elementos tomados de tres en tres nos dan un total de 64 codones posibles, pero las proteínas solo están formadas por 20 tipos de aminoácidos distintos. Lo que ocurre es que en muchos casos la tercera base del triplete no influye en la traducción: GCA, GCT, GCC y GCG tienen un mismo significado común, el aminoácido alanina.

Así, cualquier clase de información podría traducirse sobre el papel a una secuencia de ADN con solo inventar un código de equivalencias. La forma más sencilla es utilizar como alfabeto los 20 aminoácidos, dado que cada uno de ellos se abrevia por una letra: el ácido aspártico es D, la tirosina es Y y la alanina es A. El problema es que así obtenemos un alfabeto incompleto en el que faltan las consonantes B, J, X y Z, pero sobre todo dos vocales, O y U.

A pesar de las limitaciones de este sistema, se ha empleado ya para el fin último de todo este tinglado: convertir la secuencia de ADN sobre el papel en una molécula real que conserve el mensaje introducido y que luego pueda ser descodificada. El ejemplo más conocido es el del magnate de la biotecnología J. Craig Venter, que en 2008 incluyó secuencias codificadas en la recreación sintética del genoma de una bacteria llamada Mycoplasma genitalium; entre ellas, su propio nombre: CRAIGVENTER, pero también citas del escritor irlandés James Joyce y de los físicos Richard Feynman y Robert Oppenheimer. Además de su lado recreativo, estas etiquetas genéticas se emplean con un propósito, imprimir una especie de marcas de agua para diferenciar los genomas manipulados. Por ello es una práctica habitual en la producción de organismos transgénicos.

Pero el del alfabeto incompleto no es el único ni el mayor problema de utilizar el código de traducción a proteínas. Por un lado están los errores; los hay en la escritura (síntesis del ADN diseñado) y en la lectura (secuenciación del ADN producido según el diseño), y este sistema no es lo suficientemente robusto para evitarlos. Y lo que es peor, si estos mensajes se incluyen en el genoma de una bacteria como secuencias inertes, fuera de los genes reales que la célula utiliza, la evolución y sus mutaciones irán desfigurando el texto original a lo largo de las generaciones sucesivas hasta un momento en que se volverá ilegible. Por otra parte, el sistema de proteínas es adecuado para cifrar mensajes de texto, mientras que lo ideal sería emplear un código binario que aceptara cualquier tipo de archivo digital.

En 2010, un equipo de investigadores de la Universidad China de Hong Kong presentó un nuevo sistema de bioencriptación en el concurso de biología sintética iGEM del Instituto Tecnológico de Massachusetts. El diseño de los científicos chinos consistía en transformar el texto en caracteres ASCII, que se representan mediante siete bits binarios (0/1). Así, este sistema acepta cualquier tipo de archivo en formato digital. En su día calculé que el método permitiría codificar el texto completo de la Constitución Española en 139.262 bases de ADN, que se repartirían entre 175 bacterias. Los autores del trabajo aportaban el dato de que todos los archivos que caben en 450 discos duros de 2 terabytes podrían almacenarse en solo un gramo de bacterias. Otras estimaciones han propuesto que en medio kilo de ADN podría codificarse toda la información jamás grabada en los ordenadores de todo el mundo. Y todo a prueba de hackers.

Evidentemente, desde el concepto teórico hasta el día en que podamos grabar un vídeo en el genoma de una población de bacterias y luego reproducirlo en un secuenciador-reproductor habrá que saltar unos cuantos abismos tecnológicos. Pero como contaré mañana, el ADN puede esperar. Miles de años, si hace falta.

Continuará…

Inclinaos ante vuestro nuevo amo: Mario, el fontanero

Esta semana ha brotado en los medios una noticia sobre tecnología que se ha tratado con la misma ligereza que la presentación de un nuevo iPhone o una impresora 3D, y que, sin embargo, a mí me ha parecido de lo más espeluznante.

Antes de explicarlo, un poco de contexto: el día 11 de este mes, un grupo de científicos y tecnólogos publicaba una carta abierta en la web del Future of Life Institute (FLI), una organización sin ánimo de lucro dedicada a reflexionar e investigar sobre los retos que el futuro plantea a la humanidad, especialmente la inteligencia artificial (IA). En el documento, los expertos advierten de los riesgos de la IA si las investigaciones no se orientan específicamente a la consecución de objetivos beneficiosos, como la erradicación de la enfermedad y la pobreza.

Uno de los firmantes de la carta es el astrofísico Stephen Hawking, miembro de la junta directiva del FLI, quien ya en el pasado ha alertado de que el desarrollo de la IA sería el mayor hito de la historia de la especie humana, pero que “también podría ser el último” si no se implementan los mecanismos necesarios para que las máquinas inteligentes estén a nuestro servicio y no nos conviertan en sus esclavos. En la carta también ha estampado su firma Elon Musk, el magnate de la tecnología responsable de PayPal, SpaceX y Tesla Motors, así como una pléyade de científicos y tecnólogos de prestigiosas universidades y de compañías como Microsoft, Facebook y Google.

En mi última novela, Tulipanes de Marte (ATENCIÓN, SPOILER), introduzco un personaje que entra sin hacer ruido, pero que va cobrando peso hasta que su intervención se revela como decisiva en el desarrollo de la historia y en los destinos de sus protagonistas. Este personaje, Jacob, no es un ser humano, sino una máquina; la primera inteligencia artificial de la historia. Sus creadores lo diseñan con el fin de que sea capaz de buscar vida presente o pasada en Marte de forma completamente autónoma, una solución que sortea la exigencia de enviar exploradores humanos y que, de paso, mantiene a una computadora potencialmente peligrosa lejos de los asuntos de la Tierra. El cuerpo primario de Jacob es un vehículo posado en Marte; pero dado que no está compuesto de átomos, sino de bits, puede descargarse a otra máquina idéntica situada en la Tierra.

Al igual que el archifamoso HAL 9000, Jacob sufre un defecto de funcionamiento. Pero en lugar de convertirse en un asesino debido a un conflicto irresoluble en su programación, el fallo de Jacob es muy diferente. De hecho, en realidad ni siquiera podría denominarse avería, sino que es más bien una consecuencia lógica de su naturaleza. Jacob está construido aprovechando las ventajas de su soporte de grafeno, como la capacidad, rapidez y eficacia de computación, pero simulando todas las características de un cerebro humano. En nuestro procesamiento mental, las capacidades racionales, cognitivas y emocionales no pueden separarse. Aunque existen seres humanos que tienen afectada alguna de estas esferas, como la ausencia de empatía en los psicópatas, siempre consideramos estas situaciones como enfermedades o discapacidades. Jacob imita un cerebro humano sano, por lo que comienza a experimentar sentimientos que no comprende. Es emocionalmente inmaduro, así que trata de aprender cuáles son los patrones afectivos correctos a partir del comportamiento de los humanos. Y es así como descubre la afectividad, la soledad o la compasión, emociones que le impulsan a tomar decisiones bien intencionadas, pero equivocadas y con consecuencias inesperadamente graves.

En la novela, una modalidad de test de Turing inverso, que no se menciona explícitamente, revela que Jacob sabe diferenciar a las personas orgánicas de los que son como él. ¿Por qué entonces puede Jacob sentir compasión o afecto por los humanos, que no son sus iguales? Sencillamente, porque ha aprendido que así es como debe canalizar sus emociones. Es otra manera de aplicar las clásicas Leyes de la Robótica de Asimov, que incluyen la exigencia de no hacer daño a los seres humanos. Jacob lo lleva aún más allá, desarrollando verdaderos afectos.

Y hecha la introducción, ahora voy a la noticia. Un equipo de investigadores en computación de la Universidad de Tubinga (Alemania) se presentará a finales de este mes a la competición anual de vídeos organizada por la Asociación para el Avance de la Inteligencia Artificial (AAAI) con un clip titulado ¡Mario vive!, que utiliza el clásico personaje del fontanero bigotudo creado por Nintendo para modelizar el aprendizaje adaptativo que permite un comportamiento autónomo. El resultado es una secuencia en la que Mario avanza por su clásico paisaje de obstáculos a sortear –basado más bien en la versión antigua de la interfaz gráfica, no en las de los juegos actuales–, pero con una diferencia respecto a lo que estamos acostumbrados: no es un jugador humano quien lo maneja, ni sus movimientos han sido previamente programados. Es el propio Mario quien aprende y decide. Según narran los científicos en el vídeo, “este Mario ha adquirido conciencia de sí mismo y de su entorno, al menos hasta cierto grado”.

En el vídeo, Mario recibe información, que emplea para aprender y tomar sus propias decisiones basadas en su estado de ánimo. Responde a preguntas, busca monedas para saciar su hambre, explora su entorno cuando siente curiosidad, saluda y dice sentirse “muy bien”, excepto cuando sus amos humanos reducen su reservorio de felicidad. Entonces declara: “De alguna manera, me siento menos feliz. No tan bien”.

Y ahora viene lo espeluznante. En el juego de Mario Bros, uno de los cometidos del fontanero es saltar sobre los goombas, una especie de champiñones enemigos. Cuando la investigadora le dice “Escucha: Goomba muere cuando saltas sobre Goomba”, Mario responde con su tenebrosa voz sintetizada: “Si, lo comprendo. Si salto sobre Goomba, ciertamente muere”. Cuando después la investigadora le informa de que Goomba es un enemigo, Mario no duda en buscarlo y saltar sobre él, sabiendo que de esta manera lo mata.

De acuerdo, es solo un juego; un simple modelo cognitivo básico. Aún estamos lejos de fabricar computadoras inteligentes con verdadera y plena conciencia de su propia existencia. Pero es evidente que este Mario no sería capaz de distinguir entre Goomba y cualquier otro ente, real o virtual, orgánico o electrónico, que le fuera presentado como un enemigo. Si fuera capaz de abandonar su pantalla y se le instruyera para ello, mataría a un ser humano con la misma indiferencia con la que salta sobre Goomba, del mismo modo que el monstruo de Frankenstein, sin malicia alguna, arrojaba a la niña al estanque en el clásico de Universal de 1931. Es un claro ejemplo de la encrucijada que exponen los redactores de la carta del FLI: en estos momentos en que la IA aún está en pañales, la investigación debe tomar las riendas para asegurarnos de que en el futuro no crearemos monstruos.

Dejo aquí el vídeo de la demostración. No se dejen engañar por la tonadilla inocente y machacona; Mario no sentiría ninguna piedad.

¿Cómo ha llegado a esto la civilización que iluminó la Edad Oscura?

No voy a responder a la cuestión con la que titulo este artículo. Ni siquiera sé si es solo una pregunta retórica que no espera respuesta o si esta es tan compleja que debe desgranarse a través de una miríada de análisis y reflexiones como las que, en esta semana de terror en Francia, se publican en todos los medios. Mi objetivo aquí es más modesto; exponer lo que el Islam representó en una época pasada, y que cada uno digiera su propio sobrecogimiento ante la brutal diferencia con lo que hoy es (y no me refiero solo a las erupciones de terrorismo fanático, sino, en un sentido más general, al modelo de sociedad que propugna).

La percha que me asiste para colgar este comentario se presenta en forma de Año Internacional, una de esas propuestas de la ONU que aspiran a dirigir el interés del público –y de quienes manejan los recursos– hacia determinados aspectos de la sociedad. El esfuerzo de una comunidad de científicos bajo el liderazgo del presidente de la Sociedad Europea de Física, John Dudley, logró que la ONU declarara 2015 como Año Internacional de la Luz y de las Tecnologías Ópticas (IYL 2015), una llamada de atención sobre el papel que la luz y los avances basados en ella desempeñan en nuestras vidas.

Uno de los hitos más destacados del IYL 2015 es la conmemoración del milenio de una figura que a muchos resultará completamente desconocida: Ibn Al-Haytham, por aquí llamado Alhacén. Este árabe nacido en Basora (hoy Irak) en el año 965 fue matemático, físico, filósofo, astrónomo y meteorólogo, siendo sus experimentos con lentes y espejos los que le acuñaron el merecimiento de ser considerado el padre de la óptica. Sus estudios influyeron en los trabajos de otros personajes infinitamente más conocidos en occidente, como Da Vinci, Galileo, Kepler o Descartes. Pero más aún, Alhacén figura en algunos textos como el primer científico de la historia, el precursor de la experimentación sistemática en condiciones controladas y variables de acuerdo a lo que hoy entendemos como método científico. Suyas son estas palabras por las que resulta casi increíble que hayan pasado mil años: “Si aprender la verdad es la meta del científico… entonces debe hacerse enemigo de todo lo que lee”.

El IYL 2015 destacará la figura de Alhacén a través de una campaña denominada 1001 Invenciones y el Mundo de Ibn Al-Haytham, que llevará por el mundo una exposición interactiva y una serie de eventos destinados a recordar los logros del físico árabe. Quien está detrás de esta campaña es la entidad 1001 Inventions, una organización educativa con sede en Londres dedicada a divulgar el legado científico y tecnológico que en el mundo dejaron los mil años, desde el siglo VII al XVII, de una civilización musulmana que se extendió desde España hasta China. La exposición estrella de 1001 Inventions, dedicada a repasar lo que llaman la “Edad Dorada de la ciencia y el descubrimiento”, lleva varios años itinerando por el mundo; mañana, domingo 11, cerrará sus puertas en Rotterdam (Holanda) antes de abrirlas de nuevo en el Centro Científico de Kuwait la primera semana de febrero.

Según Salim Al-Hassani, ingeniero británico-iraquí que preside la Fundación para la Ciencia, Tecnología y Civilización, y principal responsable de la exposición 1001 Inventions, “hay una laguna en nuestro conocimiento; saltamos del Renacimiento a Grecia”. “El período entre los siglos VII y XVII, erróneamente llamado la Edad Oscura, fue de hecho un tiempo de avances culturales y científicos excepcionales en China, India, el mundo árabe y el sur de Europa. Este es el período histórico que nos dio el primer vuelo tripulado, enormes avances en ingeniería, el desarrollo de la robótica y los cimientos de la matemática, la química y la física modernas”, declaraba Al-Hassani hace unos años con motivo de su nombramiento como miembro honorario de la Asociación Británica de la Ciencia. “Si preguntas a cualquier persona de dónde proceden sus gafas, su cámara o su pluma estilográfica, pocos dirán que de los musulmanes”, añadía.

Para los españoles, en especial los andaluces, esta visión de la civilización medieval musulmana como una era dorada de la ciencia y la cultura no resulta tan novedosa como para otros europeos, gracias a figuras relevantes del imperio islámico nacidas en la Península, como Averroes, Avempace o Azarquiel. Los cordobeses conocen al personaje que da nombre a uno de los puentes de su ciudad, Abbás Ibn Firnás, pero ¿cuántos en España saben que este científico andalusí fue el primer humano en lanzarse en paracaídas y en pilotar un ala voladora? ¿Cuántos estudiantes occidentales aprenden que antes de los hermanos Wright, de los Montgolfier y de las máquinas voladoras de Leonardo da Vinci, fue un andaluz nacido en Ronda el primero que se atrevió a plantear científicamente el problema del vuelo (y a partirse las dos piernas en el intento)?

Representación artística del vuelo de Abbás Ibn Firnás. Imagen de 1001 Inventions.

Representación artística del vuelo de Abbás Ibn Firnás. Imagen de 1001 Inventions.

Tal vez la visión de Al-Hassani que predica 1001 Inventions no sea compartida por todos. Algunos expertos han criticado el escenario de dorada armonía que presentan esta organización y su exposición como una representación manipulada de la historia de la ciencia. En un artículo publicado en 2012 en la revista Skeptical Inquirer, el físico turco-estadounidense Taner Edis y la historiadora de la ciencia Sonja Brentjes escribían: “La agenda detrás de 1001 Inventions es explícita: promover el respeto por una herencia de la civilización musulmana, e impedir que los musulmanes, sobre todo los jóvenes, se sientan ajenos a los empeños modernos de la ciencia y la tecnología. Estos objetivos son legítimos”. Pero añadían a continuación que esta meta se presentaba a través de un falso mito: “La exposición pone en servicio muchos elementos populares de la apologética musulmana, como la noción común de que las tensiones históricas entre ciencia y religión son artefactos de la experiencia cristiana occidental y no se aplican al Islam”. “Presentando una visión sin críticas del mito de la armoniosa Edad de Oro, están prestando un pobre servicio a la comprensión pública de la ciencia y la historia”, concluían los autores.

Pese a todo, es incuestionable que el legado cultural y científico del imperio islámico es amplio y rico, y que si la figura de Hipatia de Alejandría ha servido en los últimos años para reivindicar el papel histórico de la mujer en la ciencia, la civilización musulmana tuvo a Fátima Al-Fihri, fundadora de una madraza que algunos consideran la institución universitaria más antigua del mundo, hoy la Universidad de Qarawiyyin en Fez (Marruecos). En contraste, hoy muchas de sus correligionarias tienen prohibido acceder incluso a los estudios más elementales, o deben hacerlo bajo un estricto código impuesto de conducta y vestimenta. Por desgracia, muchos de los descendientes de aquellos brillantes pensadores hoy renuncian a celebrar la luz para abrazar lo peor de la oscuridad medieval.