Archivo de la categoría ‘Tecnología’

¿Fabricamos una célula humana o viajamos a Alfa Centauri?

Hoy en día, obtener una célula humana gobernada por un genoma sintético está tan al alcance de nuestra tecnología como viajar a Alfa Centauri. Y no digamos ya un «ser humano de laboratorio», como se está publicando por ahí. Esto es hoy tan viable como fabricar los androides de la saga Alien, o los robots de Inteligencia Artificial. O para el caso, construir la Estrella de la Muerte.

Una célula de piel humana (queratinocito). Imagen de Torsten Wittmann, University of California, San Francisco / Flickr / CC.

Una célula de piel humana (queratinocito). Imagen de Torsten Wittmann, University of California, San Francisco / Flickr / CC.

Para quien no sepa de qué estoy hablando, resumo. A mediados del mes pasado, el New York Times divulgó la celebración de una reunión «privada» en la Facultad de Medicina de Harvard, que congregó a unos 150 expertos para debatir sobre la creación de un genoma humano sintético. Solo por invitación, sin periodistas y sin Twitter. Como no podía ser de otra manera, esto inflamó las especulaciones conspiranoicas en internet: los científicos quieren crear seres humanos «de diseño» al margen de la ley y la ética.

Pero para quien sepa cómo suelen funcionar estas cosas, todo tenía su explicación. Aún no se había hecho pública la propuesta formal, que era precisamente uno de los objetivos de la reunión, y que estaba en proceso de anunciarse en la revista Science. No es un caso de conspiración, sino de torpeza: los organizadores deberían haber imaginado cuáles serían las reacciones. Claro que tal vez era eso lo que buscaban; un poco de intriga con fines publicitarios nunca viene mal.

Por fin, la propuesta se publicó en Science el pasado viernes. El llamado Proyecto Genoma Humano – Escritura (PGH-escritura) nace con la idea de impulsar el progreso en la construcción de largas cadenas de ADN. Como dice la propia propuesta, «facilitar la edición y síntesis de genomas a gran escala».

El objetivo primario del PGH-escritura es reducir más de mil veces los costes de fabricación y ensayo de grandes genomas (de 0,1 a 100.000 millones de pares de bases) en líneas celulares en los próximos diez años. Esto incluirá la ingeniería de genomas completos en líneas celulares humanas y otros organismos de importancia en salud pública y agricultura, o de aquellos necesarios para interpretar las funciones biológicas humanas; es decir, regulación génica, enfermedades genéticas y procesos evolutivos.

La biología sintética marca una nueva era en la ciencia de la vida: después de descubrir, recrear para crear. Naturalmente, esto no implica que ya esté todo descubierto. Pero hoy ya conocemos lo suficiente, y disponemos de la tecnología necesaria, como para hacer lo que el género humano lleva haciendo cientos de miles de años: aprovechar los recursos disponibles para fabricar piezas con las que construir dispositivos. Y quien tenga alguna objeción a esta práctica, que apague de inmediato el aparato en el que está leyendo estas líneas.

Dado que en la célula todo procede del ADN, la biología sintética busca reinventar el genoma. En el primer escalón de esta ingeniería se encuentran las bacterias, organismos simples unicelulares, sin núcleo y con solo un pequeño cromosoma circular, una cinta de ADN unida por sus extremos.

Como conté hace un par de meses, un equipo de investigadores dirigido por el magnate de la biotecnología J. Craig Venter lleva varios años tratando de construir un cromosoma bacteriano cien por cien artificial que sea capaz de dar vida a una bacteria a la que se le ha extirpado el suyo propio. Este es un logro de enorme complejidad técnica, aunque hoy al alcance de la mano.

Pero de la célula procariota, como la bacteriana, a la eucariota, como las nuestras, el salto es cósmico. Nuestras células custodian su ADN en un núcleo enormemente complejo, donde el ADN está enrollado y vuelto a enrollar con la ayuda de unas complicadas estructuras empaquetadoras que lo condensan o lo descondensan según lo necesario en cada momento. Ya expliqué aquí que cada una de nuestras células contiene un par de metros de ADN. A lo largo del ciclo que lleva a la división en dos células hijas, cada cromosoma fabrica una copia de sí mismo, que luego se separa de la original para que cada célula resultante tenga su juego. Y esto para un total de 23 pares de cromosomas dobles. Frente a los 531.000 pares de bases de la bacteria de Venter, el genoma humano tiene unos 3.000 millones; es decir, es más de 5.600 veces más largo.

La idea de construir genomas humanos estaba ya presente antes incluso de lo que ahora tal vez deberá llamarse el Proyecto Genoma Humano – Lectura. En 1997 se publicó el primer microcromosoma humano sintético, un pequeño elemento construido a imagen y semejanza de nuestros cromosomas, con capacidad para añadirse a los normales de la célula. Así que la biología sintética humana lleva ya funcionando más de un par de decenios.

Claro que, por todo lo dicho arriba, la conclusión de muchos investigadores es que el sistema cromosómico humano es demasiado complejo como para que sea posible y merezca la pena recrearlo con nuestro conocimiento actual, por lo que la vía de los cromosomas sintéticos no ha prosperado demasiado. Hoy los esfuerzos se centran más en modificar que en crear: sustituir grandes fragmentos de ADN para corregir, mejorar o investigar. Un campo que lleva también décadas explorándose con diferentes herramientas y bajo distintos nombres, incluyendo el de terapia génica.

Así pues, nada nuevo bajo los fluorescentes del laboratorio. Nada en lo que no se esté trabajando ya en innumerables centros de todo el mundo, sin cornetas ni pregones. ¿En qué se basa entonces la novedad del proyecto? Lo que pretenden los investigadores es crear un marco que permita estructurar nuevas colaboraciones y concentrar recursos, para que sea posible sintetizar y manejar fragmentos de ADN cada vez más grandes. En un futuro no muy lejano, es concebible que se llegue a disponer de genotecas sintéticas (en el argot llamadas librerías, aunque sería más correcto hablar de bibliotecas) del genoma humano completo: todo el ADN de los 24 tipos de cromosomas humanos (22 autosomas, más el X y el Y) construido a partir de sus bloques básicos y repartido en trozos en diferentes tubitos, en un formato que permita utilizar grandes fragmentos como piezas de recambio.

Pero olvídense de la idea de una célula humana funcionando con un genoma «de laboratorio». Esto es ciencia ficción y continuará siéndolo durante muchos años. Y los replicantes son hoy algo tan lejano como Alfa Centauri. ¿Y por qué Alfa Centauri? No es un ejemplo elegido al azar. Mañana lo explicaré.

Los transgénicos no hacen mal (pero tampoco el bien esperado)

He conocido pocos biólogos moleculares opuestos a los cultivos transgénicos. Y no porque vivan/vivamos de ello. Quienes sí lo hacen suelen trabajar en compañías, y no son esos los que conozco (no por nada). La explicación de esta postura mayoritaria entre los molbiols es simplemente la misma por la cual antes nos escondíamos de las tormentas a rezar para que Dios no nos fulminara con un rayo, mientras que hoy conocemos el fenómeno eléctrico atmosférico y podemos conocer, valorar y controlar sus riesgos reales.

Ciruelas transgénicas resistentes al virus de la sharka. Imagen de Wikipedia.

Ciruelas transgénicas resistentes al virus de la sharka. Imagen de Wikipedia.

Por supuesto, una excepción al sentido de esta insinuación son los conspiranoicos, que llegan a convertirse en verdaderos especialistas (si bien con un ojo tapado) en el tema de su conspiranoia favorita, que defienden sin importar la absoluta ausencia de pruebas; pero precisamente por esto se trata de un perfil psicológico peculiar, como conté aquí.

Naturalmente, en el caso de los conspiranoicos nada podrá hacerles abandonar su convencimiento, porque es apriorístico; no es un juicio, sino un prejuicio. Ni siquiera, en el caso de los cultivos transgénicos, un informe de 400 páginas en el que ha participado más de un centenar de expertos de las Academias Nacionales de Ciencia, Ingeniería y Medicina de EEUU, que durante dos años han evaluado 900 estudios publicados en las dos últimas décadas sobre los cultivos genéticamente modificados (GM), y del que destaco y cito las siguientes conclusiones:

«Los datos a largo plazo sobre la salud del ganado antes y después de la introducción de cultivos GM no muestran ningún efecto adverso asociado a los cultivos GM.»

«A los animales no les ha perjudicado alimentarse de comida derivada de cultivos GM.»

«El comité no encontró pruebas concluyentes de relaciones causa-efecto entre cultivos GM y problemas medioambientales. Sin embargo, la naturaleza compleja de evaluar cambios medioambientales a largo plazo a menudo dificulta llegar a conclusiones definitivas.»

«No se ha encontrado ninguna prueba sólida de que los alimentos de los cultivos GM sean menos seguros [para la salud humana] que los alimentos de los cultivos no-GM.»

«Las tecnologías genéticas emergentes han borrado la distinción entre el cultivo convencional y el GM, hasta el punto de que los sistemas reguladores basados en procesos son técnicamente difíciles de defender.»

¿Maíz transgénico? No: Quality Protein Maize (QPM), un mutante inducido "biofortificado". Al ser una variedad creada por mutagénesis, no le afecta la regulación sobre transgénicos. Imagen de Neil Palmer (CIAT) / Flickr / CC.

¿Maíz transgénico? No: Quality Protein Maize (QPM), un mutante inducido «biofortificado». Al ser una variedad creada por mutagénesis, no le afecta la regulación sobre transgénicos. Imagen de Neil Palmer (CIAT) / Flickr / CC.

Esta última conclusión merece un comentario. Desde que existen la agricultura, la ganadería y la costumbre de tener animales de compañía, el ser humano ha estado seleccionando los mutantes que surgían espontáneamente para criar variedades o razas con los rasgos deseados, desde el arroz a los perros.

Desde el segundo tercio del siglo XX, antes de la existencia de las tecnologías genéticas, se ha empleado el procedimiento de forzar la aparición de estas mutaciones mediante estímulos químicos y radiológicos, es decir, mutágenos. La base de datos conjunta de la Organización de las Naciones Unidas para la Alimentación y la Agricultura (FAO) y de la Agencia Internacional de la Energía Atómica (IAEA) registra más de 3.200 de estas variedades mutantes de 214 especies de plantas, utilizadas en más de 60 países.

Sin embargo, y frente a la regulación aplicada a los organismos modificados por procedimientos de ingeniería genética, estos mutantes espontáneos o inducidos escapan al control legal. De hecho, en muchos países pueden venderse como «orgánicos», ya que esta calificación solo depende del método de cultivo y no del origen de las variedades, cuyo carácter mutante a veces se remonta a miles de años atrás (por ejemplo, nuestro trigo es genéticamente diferente del silvestre desde el inicio de la agricultura, hace al menos 8.000 años).

Y curiosamente, mientras que los cultivos GM están perfectamente caracterizados desde el punto de vista genético, los mutantes pueden comercializarse sin que se tenga la menor idea sobre cuáles son sus mutaciones, o si estas pueden ser perjudiciales para la salud o el medio ambiente. Dice el informe: «Algunas tecnologías emergentes de ingeniería genética podrán crear variedades de cultivos indistinguibles de las desarrolladas por métodos convencionales, mientras que otras tecnologías, como la mutágenesis, que no están cubiertas por las leyes actuales, podrían crear nuevas variedades de cultivos con cambios sustanciales en los fenotipos de las plantas».

Es por esto que el informe de las Academias Nacionales habla de esa distinción borrada, y por ello recomienda que «las nuevas variedades –ya sean obtenidas por ingeniería genética o de cultivo convencional– sean sometidas a ensayos de seguridad en caso de que tengan características nuevas, pretendidas o no, que puedan causar daños». El informe destaca que las nuevas técnicas -ómicas (genómicas, fenómicas, proteómicas…) serán clave en el futuro para conocer con detalle la ficha completa de toda variedad de cultivo, sea cual sea su origen.

Pero por otro lado, el informe también concluye lo siguiente:

«Las pruebas disponibles indican que la soja, el algodón y el maíz GM generalmente han tenido resultados económicos favorables para los productores que han adoptado estos cultivos, pero los resultados han sido heterogéneos dependiendo de la abundancia de plagas, prácticas agrícolas e infraestructuras de cultivo.»

«Los cultivos GM han beneficiado a muchos granjeros a todas las escalas, pero la ingeniería genética por sí sola no puede afrontar la amplia variedad de desafíos complejos a los que se enfrentan los granjeros, sobre todo los pequeños.»

En conclusión, los expertos destacan que los cultivos GM tampoco han sido la panacea esperada: no han aumentado drásticamente la producción como se prometía y, aunque para algunos granjeros han sido beneficiosos, a otros no les ha merecido la pena la inversión. Por supuesto, para algunas compañías han sido un negocio muy rentable.

¿Un negocio fallido? ¿Una promesa incumplida? ¿Un timo? Aún es pronto para decidirlo: «La biología molecular ha avanzado sustancialmente desde la introducción de los cultivos GM hace dos décadas», dice el informe. Entre estos avances está la tecnología de edición genómica CRISPR, que permite una manipulación del ADN mucho más precisa y eficaz que las tecnologías anteriores. «Están en marcha las investigaciones para aumentar el rendimiento potencial y la eficiencia en el uso de los nutrientes, pero es demasiado pronto para predecir su éxito», apuntan los autores. Y aún mucho más allá, todavía ni asomando por el horizonte, está la biología sintética.

Como resumen de todo lo anterior, y al menos en lo que respecta al panorama dibujado por el informe y a las previsiones que se derivan de él, hay una conclusión que probablemente parecerá tan risiblemente evidente para algunos como increíblemente insólita para otros: el futuro de la agricultura pasa inevitablemente por más tecnología, y no por menos.

Vídeo en streaming a través de la carne

Tal vez recuerden una película de los años 60 titulada Viaje alucinante (Fantastic Voyage), en la que un submarino y su tripulación científica eran reducidos a un tamaño microscópico para introducirse por vía intravenosa (si no recuerdo mal) en el organismo de un tipo y salvarle la vida. Y quienes no la recuerden tal vez tengan pronto la ocasión de conocerla, si se confirma un posible remake que al parecer dirigirá Guillermo del Toro. Esto sin contar la inevitable recreación que hicieron Los Simpson.

Imagen de Twentieth Century Fox.

Imagen de Twentieth Century Fox.

No vengo a contarles que la premisa de la película está más cerca de hacerse realidad, pero sí una parte de ella: la posibilidad de introducir un sumergible –no tripulado, claro– en el cuerpo de alguien, dirigirlo a distancia desde el exterior y que transmita en directo vídeo en streaming de alta definición mostrándonos lo que ocurre por nuestros entresijos.

Esto ya no resulta tan descabellado. En los últimos años se viene hablando de las píldoras digitales, microchips que pueden tragarse y monitorizar los parámetros deseados dentro del organismo antes de ser expulsados por la puerta de salida habitual. Por otra parte, ciertos aparatos implantados en el interior del organismo ya pueden ser controlados desde el exterior a través de sistemas clásicos de ondas de radio. El uso del cuerpo humano como medio transmisor de ondas es un activo campo de investigación.

El problema con los sistemas actuales es que los seres vivos no somos muy buenos transmitiendo ondas de radio. Las frecuencias utilizables para aparatos médicos ocupan una estrecha franja y el ancho de banda es pequeño, por lo que las máximas velocidades de transmisión alcanzables están en torno a las 50 k o kbps (kilobits por segundo); una conexión ADSL normal, pongamos de 10 megas, es 200 veces más rápida.

Sistema experimental de transmisión de datos a través de lomo de cerdo. Imagen de Singer et al. / Universidad de Illinois.

Sistema experimental de transmisión de datos a través de lomo de cerdo. Imagen de Singer et al. / Universidad de Illinois.

Un equipo de investigadores de la Facultad de Ingeniería de la Universidad de Illinois está ensayando una solución infinitamente más conveniente: ultrasonidos. Al menos desde hace un siglo, con la invención del sónar, los humanos hemos aprovechado que el sonido se transmite mucho mejor bajo el mar que las ondas de radio. ¿Y qué es nuestro cuerpo sino agua salada con algunos ingredientes añadidos?

Con este enfoque, los investigadores ensayaron la transmisión de datos por ultrasonido a través de tejidos animales, los cuales obtuvieron de la carnicería local: un lomo de cerdo y un hígado de vaca. En su estudio, disponible en la web de prepublicaciones arXiv.org, los autores cuentan que lograron velocidades de entre 20 y 30 megas (Mbps), «demostrando la posibilidad de transmisión de datos a velocidad de vídeo en tiempo real a través del tejido», escriben.

Según Andrew Singer, coautor del estudio, «podemos imaginar un dispositivo que pueda tragarse para tomar imágenes del tubo digestivo, con capacidad de transmitir vídeo HD en directo por streaming a una pantalla externa, y de modo que el dispositivo pueda controlarse a distancia externamente por el médico». Aunque no es la primera vez que se ensaya la transmisión de datos a través de tejidos animales, nunca antes se había hecho a tal velocidad. Dice Singer: «Esta velocidad de transmisión es suficiente, por ejemplo, para ver Netflix». La pega es que aún habrá que estudiar los posibles efectos de la transmisión de ultrasonidos a través de tejidos vivos.

Ada Lovelace no fue la primera programadora, pero vio el futuro de las computadoras

No crean todo lo que lean por ahí. Internet es un medio fantástico de difusión de información, pero también puede serlo de desinformación. Y cuando una versión de una historia cuaja y se copia y recopia en miles de webs, es muy difícil llegar a derribarla, por muy equivocada que esté.

Detalle del retrato de Ada Lovelace pintado por Margaret Carpenter en 1836. Imagen de Wikipedia.

Detalle del retrato de Ada Lovelace pintado por Margaret Carpenter en 1836. Imagen de Wikipedia.

Hace unos días el historiador de la computación Doron Swade me escribía en un correo: «Si puedes corregir las innumerables equivocaciones que abundan sobre la reputación de Lovelace, habrás hecho más que ningún otro periodista con el que haya tenido el placer de relacionarme». ¿A qué se refería Swade? A esto: «Si como periodista levantas alguna duda sobre la proclama de la primera programadora, no digamos si la rebates, habrás hecho más que nadie que conozco con proyección pública para realinear las pruebas históricas con la percepción pública, y te deseo suerte en ello».

Ada Lovelace, de cuyo nacimiento hoy se cumplen 200 años, fue la única hija legítima de Lord Byron, un tipo tan agraciado por su talento poético como desgraciado en su vida amorosa. Es curiosa la riqueza del castellano cuando una palabra puede significar algo y su contrario. En el caso de «desgraciado», el diccionario recoge dos significados contrapuestos: el que padece desgracia, o el que la provoca a otros. Byron repartió mucha desgracia amorosa y, con ella, dejó por ahí un número de hijos que ni siquiera se conoce con exactitud. Solo una vez se casó, con Annabella Milbanke, y de este matrimonio nació una niña, Ada. Byron y Annabella rompieron cuando la niña solo tenía un mes.

Ada se crió con sus abuelos y con su, al parecer, poco afectuosa madre, que se preocupó de que aprendiera matemáticas y lógica para evitar que sufriera los delirios de su padre. Desde pequeña, la futura condesa de Lovelace destacó por su inteligencia y por su interés en los números, que la llevarían a relacionarse con Charles Babbage, el creador de las primeras calculadoras mecánicas; un trabajo por el que Babbage suele recibir el título de padre de la computación.

Ada se encargó de traducir al inglés un artículo que resumía una conferencia pronunciada por Babbage en Italia. Al final del texto, añadió unas extensas notas que incluían un algoritmo que permitiría a la máquina calcular los números de Bernoulli, una serie de fracciones con diversas aplicaciones matemáticas. Y es este algoritmo el que ha servido para promocionar mundialmente a Ada Lovelace como la autora del primer programa informático de la historia, un título que suele acompañar a su nombre en innumerables reseñas biográficas.

No se trata de que aquel algoritmo no pueda definirse exactamente como un programa informático. Es evidente que aún quedaba un siglo por delante hasta la existencia de verdaderas computadoras que trabajaran con programas tal como hoy los entendemos. Pero aquel algoritmo era una descripción paso a paso de los cálculos que realizaría la máquina, por lo cual los expertos reconocen en aquel trabajo el primer precursor de la programación.

El problema es que, según parece, no fue el trabajo de Lovelace, sino de Babbage. Durante años, los expertos han discutido hasta qué punto aquellas notas escritas por Ada fueron realmente producto de su mente o fueron más o menos dirigidas por Babbage. Si abren la página de la Wikipedia sobre Ada Lovelace en inglés (la entrada en castellano no recoge la controversia), comprobarán que existen versiones contradictorias. Pero en general, los historiadores de la computación favorecían la versión de que Babbage era quien mejor conocía la máquina que él mismo había ideado, y que los primeros programas fueron obra suya. En palabras de Swade: «La idea de que Babbage inventó una computadora y no sabía que podía programarse es de risa».

A esto se añaden los nuevos datos aportados ahora por Swade en el simposio celebrado esta semana en Oxford con motivo del bicentenario de Ada Lovelace. Según me contaba por email antes del simposio, tiene las pruebas documentales de 24 programas creados por Babbage seis o siete años antes de las famosas notas de Lovelace, y ha rastreado en ellos la procedencia original de cada uno de los rasgos que aparecen en el programa de los números de Bernoulli del escrito de Ada; lo que parece zanjar definitivamente el debate. He explicado los detalles en este reportaje.

Queda una cuestión por resolver, y es que según parece los programas no están escritos de puño y letra por Babbage. Sin embargo, Swade apunta que el matemático solía emplear escribientes y dibujantes, y que de hecho gran parte del material por el que es reconocido tampoco corresponde a su escritura. La posibilidad de que estos primeros programas fueran escritos por Lovelace queda descartada, según Swade, por otras pruebas indirectas: en primer lugar, de ser así habría correspondencia al respecto entre ambos, que no existe. Y tal vez más importante, de las cartas que Babbage y Lovelace intercambiaron más tarde, en la época de las notas, se deduce que por entonces Ada solo estaba comenzando a comprender los fundamentos de la máquina, lo que no cuadraría con el hecho de que hubiera escrito programas para ella varios años antes.

Pese a todo lo anterior, Swade quiere dejar claro que no pretende de ningún modo desmontar la figura de Ada Lovelace, sino solo el mito: «El propósito de mi derribo de la ficción de la primera programadora no es desacreditar a Lovelace; ella nunca hizo tal proclama. El derribo se dirige hacia aquellos que han confeccionado y perpetuado la ficción».

De hecho, Swade lleva años defendiendo que la verdadera y valiosa aportación de Ada Lovelace, y aquella por la que debería ser celebrada y recordada, fue su capacidad de ver más allá: «Babbage no vio en ningún momento que las computadoras pudieran operar fuera de las matemáticas», dice el historiador, mientras que «fue Lovelace, no Babbage ni sus contemporáneos, quien vio que los números podían representar entidades diferentes de las cantidades: notas de música, letras del abecedario o más cosas, y que el potencial de las computadoras residía en el poder de representación de los símbolos, en su capacidad de manipular representaciones simbólicas del mundo de acuerdo a unas reglas».

Ada Lovelace continuará siendo lo que siempre ha sido, pionera de la computación, una figura brillante y adelantada a su época que combinó maravillosamente su vocación científica con la herencia poética que le venía de familia; un espléndido ejemplo para las Ciencias Mixtas. Mañana contaré algún aspecto más de su vida, igualmente insólito.

Sin noticias de la estrella KIC 8462852: no llaman, no escriben…

El rastreo de posibles señales de vida inteligente en la misteriosa estrella KIC 8462852 no ha encontrado nada. Ni saludos, ni signos de que alguien allí esté empleando sistemas de transporte avanzados que dejen una huella electromagnética detectable desde la Tierra.

Marvin el marciano. Imagen de Warner Bros.

Marvin el marciano. Imagen de Warner Bros.

La estrella, a la que los astrónomos llaman coloquialmente Estrella de Tabby (por Tabetha Boyajian, responsable del hallazgo) o WTF (por Where’s the Flux, «dónde está el flujo», o también por What the Fuck, «pero qué coño»), ha estado en boca de científicos, ufólogos, periodistas de ciencia y curiosos en general debido a su comportamiento aberrante, nunca antes observado. Los datos del telescopio espacial Kepler mostraron que la luz de la estrella se atenúa periódicamente hasta en un 20% (más información aquí). Aunque esto probablemente se deberá a un fenómeno natural inédito, qué mejor ocasión para fantasear con la posibilidad de que una supercivilización superinteligente y supertecnológica ha creado una superestructura alrededor de su estrella para recolectar su energía.

Ya, ya; la idea resultará estrafalaria a quien la oiga por primera vez, pero lo cierto es que estas megaestructuras hipotéticas fueron propuestas formalmente por el prestigioso físico Freeman Dyson, y durante décadas han formado parte de las teorías sobre la posible evolución de civilizaciones tecnológicas como, por ejemplo, la nuestra. Según su configuración, se conocen como anillos de Dyson, esferas de Dyson, o enjambres de Dyson si se trata de una masa de pequeños artefactos móviles.

Este último caso fue el que se imaginó para KIC 8462852. Una civilización semejante, con un dominio de su estrella, dispondría de la energía suficiente para emitir señales de radio con una potencia que en la Tierra ni podríamos soñar. Así que los investigadores del Instituto SETI (siglas en inglés de Búsqueda de Inteligencia Extraterrestre) en Mountain View, California, orientaron hacia la estrella el complejo de 42 antenas de la matriz de telescopios Allen (ATA).

La escucha ha ocupado la segunda quincena de octubre. Los científicos han buscado señales de frecuencia muy alta, entre 1 y 10 gigahercios, en el rango de las microondas, y tanto en banda estrecha –como se haría si se enviara una comunicación deliberada en una dirección– como en banda ancha –para buscar señales en todas direcciones procedentes de tecnología empleada en la propulsión de naves–.

Pero según detallan los investigadores en un estudio disponible en la web de prepublicaciones arXiv, sin éxito. Lo que se puede concluir es que hace 1.500 años (la estrella se encuentra a unos 1.500 años luz de nosotros) no había allí nadie transmitiendo una señal en todas direcciones como mínimo 100 veces más potente que la de los mayores transmisores terrestres, para la banda estrecha, o diez millones de veces, para la banda ancha.

La buena noticia es que estos límites son altos, porque la estrella está muy lejos y el ATA no puede ofrecer una sensibilidad con un umbral más bajo. La mala noticia es que, según los autores, si la señal se orientara hacia nuestra parte de la galaxia, la energía necesaria sería mucho menor.

La buena noticia es que no tendrían por qué transmitir hacia nosotros, dado que no saben que estamos aquí; las señales que recibimos ahora son de hace 1.500 años, y en caso de que ellos hubiesen detectado la Tierra como un posible planeta habitable, habrían recogido la luz de nuestro Sol de otros 1.500 años antes, lo que hace un total de 3.000 años. Sobre el año 1.000 a. C., por aquí estábamos muy ocupados disfrutando de nuestra última innovación tecnológica: el hierro.

Pero la mala noticia es que una civilización con un enjambre de Dyson tendría a su disposición los aproximadamente 1.000 cuatrillones de vatios de su estrella (10^27); serían como esos tuneros que abren el maletero y ponen música a toda la comarca.

Finalmente, la buena noticia, o más bien el único consuelo, es que los investigadores del SETI no se dan por vencidos y continuarán vigilando la estrella WTF. Y que, esperemos que más pronto que tarde, otros científicos descubrirán cuál es el fenómeno (natural) que está tapando parte de la luz de la estrella, y seguro que se tratará de un sorprendente hallazgo astronómico. Pero por el momento, ET sigue sin llamar, lo que por desgracia es otro punto más para quienes defienden la hipótesis pesimista de que tal vez no haya nadie más ahí fuera.

Como consuelo, para este domingo les dejo aquí la historia sobre el hombre de las estrellas que envía su mensaje por radio a la Tierra: Starman, del gran David Bowie.

¿Puede la ciencia arreglar el problema del tráfico?

Es maravilloso que se favorezca el uso del transporte público o de otros medios alternativos para desplazarse. Cualquiera que defendiera lo contrario, es decir, el derecho a que cada uno pueda moverse libremente como le venga en su real gana, cuando y adonde le parezca mientras lo haga en un medio de transporte legal, estaría incurriendo en una grave incorrección política. Y por supuesto, es fantástico que la publicidad de la Dirección General de Tráfico anime a los usuarios a prescindir del coche para así aligerar el trabajo de la Dirección General de Tráfico. De hecho, no entiendo cómo es que Aena no emite anuncios animando a los usuarios a viajar en tren para evitar la congestión en los aeropuertos y los retrasos en los vuelos.

Atasco de tráfico en China. Imagen de YouTube.

Atasco de tráfico en China. Imagen de YouTube.

Ironías aparte, me gustaría creer que los responsables de nuestras infraestructuras, a la hora de planificar la construcción de nuevas carreteras, tienen en cuenta toda la ciencia aplicada al tráfico que se ha desarrollado en el último medio siglo, desde que algunos investigadores comenzaron a escribir ecuaciones para comprender cómo funciona la circulación de vehículos.

En Madrid, donde en las últimas semanas se ha hablado de varios colapsos cuando han coincidido lluvia, hora punta y lunes, tradicionalmente se ha afrontado este problema construyendo nuevas carreteras y anillos de circunvalación. Pero hasta un profano en materia de tráfico como yo sabe que el hecho de abrir más carreteras no alivia el tráfico a largo plazo. Este efecto tiene incluso un nombre: se llama Paradoja de Braess.

La gran tentación para los gobernantes es tomar la salida más fácil: restringir o prohibir. Pero este tipo de medidas son socialmente injustas: aplicar una tasa, como en Londres, beneficia a quienes pueden costearla; y la solución de las matrículas alternas, como en Roma, también favorece a aquellos que pueden permitirse tener dos coches en el garaje, uno para los días de placa par y el otro para los de impar.

¿Qué hacemos entonces? La teoría del tráfico es un campo que se ha beneficiado mucho del progreso de los modelos informáticos de simulación, que consideran la circulación de los vehículos como el movimiento de un fluido de características peculiares. Muy peculiares; este vídeo de un experimento realizado por investigadores japoneses muestra eso que todos hemos sufrido, los parones de tráfico sin motivo aparente, causados solo por el hecho de que varios vehículos circulan a corta distancia por un mismo carril sin nada que bloquee o ralentice el tráfico, salvo los propios coches. Muy propiamente, lo llaman atasco fantasma.

Otra fuente a la que los científicos están recurriendo para comprender cómo funciona el tráfico, y cómo podría funcionar mejor, es la naturaleza. Algunos investigadores llevan años analizando el movimiento de las hormigas. Estos insectos no solo circulan a cientos por rutas estrechas como nuestras carreteras sin sufrir embotellamientos, sino que cuantas más se echan a la ruta, más rápido se mueven, como demostró hace unos meses un equipo de investigadores alemanes. En España hay también algunos investigadores que estudian los modelos de las hormigas, la oruga procesionaria o las migraciones de aves, como recogía un artículo de la revista de la DGT.

Los propios expertos reconocen que los modelos aún distan mucho de ser perfectos. Y naturalmente, las hormigas pueden pasar unas por encima de otras, cosa que a nosotros no nos es posible, al menos con los coches actuales. Pero según los investigadores, parte del éxito de estas hormigueantes autopistas se basa en la ausencia del factor típicamente humano en el que reside gran parte de la culpa de nuestros atascos: el adelantamiento por chulería, el zigzag del impaciente, el frenazo para mirar el móvil, el frenazo para mirar el accidente, el frenazo para mirar a la conductora del coche de al lado, el frenazo para mirar al conductor del coche de al lado… O nada de esto, como demuestra el vídeo del atasco fantasma. Simplemente, somos humanos.

Así que, mientras esperamos ese día en el que –según nos vaticinan– tendremos coches eléctricos a precios asequibles que se conducirán solos y se organizarán entre ellos para ordenarse mecánicamente como un perfecto Tetris fluido sin tapones ni frenazos, algo más habrá que hacer. No parece fácil. Pero ¿alguien ha preguntado a los científicos?

Año 1 después de McFly: ¿adiós al ordenador personal y al móvil?

Con ocasión del advenimiento del año 1 d. M. F. (después de McFly), las comparaciones entre nuestro 2015 y el suyo han llegado hasta a los telediarios. Siempre es un ejercicio curioso; aunque al parecer Robert Zemeckis, el director de la trilogía, declaró que su pretensión nunca fue tanto plasmar un futuro creíble como simplemente divertido. En mi caso, esta semana he conmemorado la ocasión tirando por otro derrotero, el de los viajes en el tiempo, que siempre da mucho jugo y mucho juego.

Pero quería dejar aquí un comentario relativo a esos parecidos y diferencias entre el pasado de Marty, su presente, su futuro, nuestro presente y nuestro futuro. La saga de Back to the Future basa su tono de comedia sobre todo en un elemento, el choque cultural, un argumento que el cine ya ha desgranado en muchas y distintas versiones: la del cambio de país, la del emigrante del campo a la ciudad, incluso la del extraterrestre camuflado como un humano más. En este caso, es el cambio de época. Pero curiosamente, y mientras que en la segunda parte este choque se plasma sobre todo en el factor tecnológico, en la película original el efecto se expresaba más bien en detalles sociológicos: las marcas comerciales (Levi’s, o Calvin Klein en el original*), los personajes (Ronald Reagan), los usos y costumbres (el comportamiento de la madre de Marty), la música (el Johnny B. Goode)…

¿Por qué? Si bien lo miramos, se diría que el salto tecnológico entre 1955 y 1985 no fue tan sustancial. Incluso entre 1955 y 2015, solo ha sido realmente revolucionario para el humano común en un aspecto, el de todo aquello que lleva una pantalla: ordenadores, smartphones, tablets.

Marty McFly descubre que un ordenador de su tiempo es una reliquia en 2015, en 'Regreso al futuro parte II'. Imagen de Universal Pictures.

Marty McFly descubre que un ordenador de su tiempo es una reliquia en 2015, en ‘Regreso al futuro parte II’. Imagen de Universal Pictures.

Esta semana he dedicado un día a fijarme a mi alrededor y pensar en cómo nuestra vida se ha transformado en función de la tecnología desde una época como 1955. Los automóviles de hoy esconden innovaciones impensables entonces, pero siguen siendo coches que circulan por una carretera. Seguimos viajando en avión, tren, metro o autobús, sufriendo atascos de tráfico, iluminándonos con bombillas que encendemos con una llave en la pared, escuchando la radio, viendo la televisión, trabajando en una oficina, lavando la ropa en una máquina giratoria y planchándola con una placa de metal caliente, aspirando el suelo con una escoba de succión, cocinando y tomando cañas en los bares (por suerte) que luego nos vetan la posibilidad de conducir.

Esto último, porque aún no tenemos coches que se conduzcan solos. Como tampoco disponemos de automóviles (ni patines) voladores, ni vivimos bajo tierra, ni las calles nos llevan directamente al piso 157, ni pasamos las vacaciones en Marte, ni nos teletransportamos a Nueva Zelanda para desayunar, ni limpiamos la casa pulsando un botón, ni nos pintamos (se pintan) las uñas con un lápiz electrónico, ni tenemos robots o avatares virtuales que trabajen por nosotros, ni viajamos en el tiempo, ni nos metemos en una máquina que nos rejuvenezca y nos cure todos nuestros males, ni nos congelamos para resucitar en el futuro. Desde 1955 hemos asistido a innumerables mejoras incrementales y graduales en todo aquello que nos rodea, pero casi nada que realmente cambie lo esencial de nuestra forma de vida.

Aunque fue en los 80 cuando se popularizó el posmodernismo, aún seguía viva la herencia del optimismo tecnológico de la modernidad. La verdadera revolución de la tecnología en todos los ámbitos de la vida humana fue la de parte del siglo XIX y parte del XX, cuando surgieron todas esas innovaciones disponibles hoy que no existían en 1855, pero sí en 1955.

Como ya he mencionado, solo en la forma de comunicarnos, relacionarnos e informarnos a través de los dispositivos de pantalla es en lo que este 2015 se diferencia radicalmente de 1955, pero también del 1985 de Back to the Future. Recuerdo 1985; 17 años. Entonces no pensábamos que en 2015 fuéramos a tener coches voladores, pero sí habríamos apostado por que la vida hoy sería muy diferente; por supuesto, mejor. Quizá, más que optimismo, un cierto candor.

Para vislumbrar qué podría depararnos el futuro en este único campo que tanto ha cambiado en unas pocas décadas, nadie mejor que un experto. Esta semana estuve conversando con el historiador de la computación David Greelish, autor del libro Classic Computing: The Complete Historically Brewed. Greelish es de los que piensan que la evolución de la informática personal está ahora inmersa en una etapa de meseta, en comparación con los últimos 30 años. «Pienso que es justo decir que el portátil nuevo que utilizamos ahora no es tan radicalmente diferente del que usábamos en 2010, o incluso en 2005», dice. «En un período de tiempo mucho más corto, puedo decir lo mismo de los smartphones y tablets«.

Lo cual no implica, en opinión de Greelish, que nada vaya a cambiar, sino que la transformación no será tan revolucionaria como la que hemos presenciado a lo largo de nuestras vidas. El experto piensa que «el futuro cercano es muy excitante», y que variará el concepto de dispositivo autónomo personal que empleamos hoy. «Creo que estamos solo a una década o así del momento en el que ya no habrá ordenadores o smartphones o incluso televisión como hoy los entendemos, como aparatos independientes. Simplemente, habrá pantallas de distintos tamaños conectadas a la nube».

Estas pantallas, prosigue Greelish, podrán sostenerse en una mano, en las dos, apoyarse en la mesa, en la pared o ser la pared. Todas ellas nos permitirán acceder a cualquier tipo de archivo digital. Pero el hecho de que el objetivo final sea la disponibilidad del contenido, y que esto se facilite a través de innumerables opciones y formatos, acabará también con esa actual dependencia del móvil, ya que el aparato pasará a un segundo plano. «No importará si es tu pantalla o no», afirma Greelish. «El futuro de la computación en la nube no es tus datos en cualquier lugar, sino más bien tu ordenador en cualquier lugar; yo podría estar en casa de un amigo y no solo acceder a mis datos, sino a todo mi material digital. Cualquier pantalla puede convertirse en mi pantalla también para mis apps, convirtiéndose en mi ordenador».

De hecho, Greelish apunta una tendencia que viene pujando en los últimos años y que asoma tanto en las ferias de tecnología como en las páginas de las revistas de ciencia: las pantallas plegables, quién sabe si incluso desechables. «Un smartphone o tablet se podría guardar en un bolsillo, desdoblarse y hacerse más grande; esto captará nuestra atención y será divertido por un tiempo».

¿Y más allá de esto? «Predecir el futuro es un terreno peligroso, ya que quienes lo hacen casi siempre acaban pareciendo ridículos en el futuro», advierte Greelish. Pero tal vez tampoco haga falta un ejercicio de futurología muy certero para entender que, si lo importante son los contenidos, la barrera que supone el uso de un dispositivo debería tender a minimizarse. Al fin y al cabo nuestros aparatos no dejan de ser, en el fondo, sofisticadas prótesis: lo que emitimos y percibimos finalmente consiste en actividad cerebral electroquímica. Algunos investigadores están abriendo el camino hacia la comunicación directa de cerebro a cerebro, algo que nos permitiría incluso prescindir de las pantallas.

Y añado: solo espero que todo esto no haga realidad ese verso de Bad Religion:

Cause I’m a 21st century digital boy

I don’t know how to read but I got a lot of toys

*Levi’s ya era una marca de sobra conocida en los años 50 en EE. UU. En la versión original en inglés Marty decía llamarse Calvin Klein, pero esta marca aún no era popular en la España de los 80, por lo que los traductores optaron por cambiarlo.

Un ordenador predice que el ébola podría tratarse con… ibuprofeno

Puede parecer una broma, pero no lo es. El ibuprofeno, ese familiar antiinflamatorio, analgésico y antipirético que coge polvo en el fondo de armario de cualquier botiquín, ese que damos a nuestros niños desde la cuna (Dalsy), y ese sobre el que la Agencia Europea del Medicamento alertaba el mes pasado de que a altas dosis puede provocar problemas cardiovasculares, podría servir como prevención y tratamiento del ébola.

Modelo en 3D de un filovirus, la familia del ébola. Imagen de Nilses / Wikipedia.

Modelo en 3D de un filovirus, la familia del ébola. Imagen de Nilses / Wikipedia.

En realidad no se trata de ninguna propuesta estrambótica, sino del resultado de una práctica muy común en la investigación biomédica. El desarrollo de nuevos fármacos es un proceso largo, costoso e incierto. Cuando se trata de enfermedades de difícil tratamiento o de emergencias de salud pública, a menudo este horizonte es demasiado lejano. Actualmente se está administrando en Sierra Leona el TKM-Ebola, un sofisticado medicamento que ha demostrado resultados espectaculares en los ensayos preclínicos con monos. Pero hasta que este fármaco u otros confirmen su eficacia de acuerdo a los protocolos y superen todos los filtros necesarios, es posible tirar de otra solución más rápida y barata. La idea es: ya tenemos infinidad de medicamentos; probemos si alguno sirve.

Con este fin, los investigadores emplean un procedimiento llamado in silico. Si in vivo es en humanos o animales e in vitro es en placa, in silico no es ni más ni menos que en las tripas de un ordenador. Es decir, una simulación. Se trata de introducir una batería de fármacos en un modelo y comprobar si el ordenador predice interacciones entre algún medicamento y el patógeno de interés que pudieran ser útiles en la práctica. En realidad, el sistema informático mejora y amplía algo que antes los bioquímicos hacían in cerebro, predecir interacciones basándose en la estructura de las moléculas.

Una de las aplicaciones de los estudios in silico es el screening virtual de posibles candidatos terapéuticos. Frente al rastreo (screening) «real» de miles de moléculas posibles, que requiere el uso de materiales costosos, mucho tiempo y laboratorios robotizados, el screening virtual in silico ofrece una opción mucho más barata y rápida para seleccionar moléculas de diseño o fármacos ya conocidos que puedan ejercer efectos terapéuticos contra otras enfermedades ajenas a sus usos habituales. Y funciona: algunos posibles agentes antitumorales se han identificado de esta manera, y se han publicado tasas de éxito del 50%; es decir, que la mitad de las interacciones provechosas pronosticadas por el modelo se confirmaban después en los experimentos reales.

Como ejemplo, el Programa de Terapias Experimentales del Centro Nacional de Investigaciones Oncológicas (CNIO) tiene una librería (término mal traducido del inglés library, pero de uso habitual) de unos 50.000 compuestos. En un estudio del que hoy hablan algunos medios, el equipo de María Blasco ha identificado dos moléculas que muestran actividad antitumoral bloqueando una proteína implicada en la inmortalidad de las células cancerosas. Para encontrar estos dos compuestos, en este caso los investigadores hicieron un screening «real», conocido como high-throughput screening, con 640 moléculas representativas de las 50.000 de la librería. Pero examinar 640 compuestos ya es toda una proeza cuando se trata de rastreos experimentales que requieren trabajo de laboratorio; en cambio, el procedimiento in silico permite ensayar miles de moléculas virtualmente sin tocar una pipeta.

Por supuesto que toda posible actividad identificada in silico debe después confirmarse in vitro e in vivo si se trata de que una molécula candidata se convierta en un medicamento. Pero como primer paso, los experimentos in silico ofrecen una manera conveniente de restringir el foco a unos cuantos compuestos de interés seleccionados de librerías muy amplias.

En el caso del ébola, antes del estudio in silico que vengo a contar se han hecho screenings in vitro, con células en cultivo, e in vivo, con ratones. De esta manera se entresacaron más de 100 moléculas activas contra el virus del Ébola; entre ellas la cloroquina, el más clásico de los tratamientos modernos contra la malaria. La acción de la cloroquina ha sido después confirmada por otros estudios.

Al mismo tiempo, un equipo de investigadores de Europa, EE. UU. y Canadá, dirigido por Veljko Veljkovic, del Instituto de Ciencias Nucleares Vinča de la Universidad de Belgrado (Serbia), ha emprendido un amplio screening virtual in silico con 6.438 compuestos del DrugBank, una base de datos de fármacos perteneciente a la Universidad de Alberta (Canadá). A partir de esta librería, los científicos seleccionaron 267 medicamentos aprobados y otros 382 experimentales como posibles tratamientos contra el ébola. Entre ellos se encuentran 15 fármacos contra la malaria y 32 antibióticos.

Es importante aclarar algo obvio: el ébola es un virus. Esto implica que ni los medicamentos contra los parásitos como el de la malaria, ni los antibióticos, que solo actúan contra las bacterias, son en principio adecuados para tratar una enfermedad vírica. Pero como ya he explicado, se trata precisamente de descubrir actividades que no podrían sospecharse de acuerdo a la naturaleza de los fármacos. El hecho de que un compuesto sea capaz de inhibir la infección por un virus depende en muchos casos de que pueda unirse a una molécula que el patógeno emplea para entrar en la célula, y por tanto bloquearla. Estas interacciones entre moléculas son como los encajes entre las piezas de un Lego en el que hay infinidad de conexiones de formas distintas. Y a veces, pueden conectarse dos piezas que en principio no estaban pensadas para unirse entre sí.

Ahora, en un nuevo estudio, el equipo de Veljkovic se ha centrado en esos 267+382 compuestos identificados anteriormente. Y de todos ellos, los modelos de simulación empleados han identificado el mejor candidato: el viejo y buen ibuprofeno. «Barato, ampliamente accesible y mínimamente tóxico», como lo definen los autores. «Tomados en conjunto, estos datos indican que el ibuprofeno podría usarse con seguridad en dosis sin prescripción en pacientes de ébola, con posibles efectos antivirales, así como para aliviar los síntomas», escriben los investigadores. El modelo predice para el ibuprofeno una actividad contra el virus en el mismo orden que la cloroquina, ya verificada con el virus real, por lo que Veljkovic y sus colaboradores recomiendan ensayos in vitro e in vivo.

Gracias a sus modelos, los investigadores han podido concretar el posible mecanismo de acción del ibuprofeno contra el ébola. Según explican en su estudio, publicado en la revista digital F1000Research y aún pendiente de la obligatoria revisión, el ibuprofeno podría unirse a una proteína del virus llamada GP1, que el patógeno emplea normalmente para anclarse a un tipo de moléculas llamadas EMILINs presentes en el andamiaje de los vasos sanguíneos. Según el modelo, el ibuprofeno bloquearía la GP1 del virus, impidiendo así la infección.

¿Y si los aviones se pilotaran solos?

La semana pasada el visionario, tecnólogo y empresario Elon Musk, responsable de PayPal, SpaceX y Tesla Motors, y a quien algunos medios suelen definir como la versión real de Tony Stark, provocó cierto revuelo en internet cuando dijo: «En un futuro distante, los legisladores podrían prohibir los coches conducidos porque son demasiado peligrosos». Musk pronunció esta frase en la Conferencia de Tecnología GPU, en San José (California), ante una audiencia de 4.000 personas durante un mano a mano con Jen-Hsun Huang, CEO de la compañía tecnológica NVIDIA, a propósito de la presentación de un ordenador de conducción autónoma desarrollado por esta empresa.

Ilustración del F 015 Luxury in Motion, el Mercedes autoconducido. Imagen de Mercedes-Benz.

Ilustración del F 015 Luxury in Motion, el Mercedes autoconducido. Imagen de Mercedes-Benz.

Musk no vaticinó que las calles y carreteras se llenarán de coches autoconducidos de la noche a la mañana; aclaró que será un cambio lento y que, si los vehículos autónomos estuvieran disponibles mañana mismo, la transición llevaría 20 años. También pronosticó que los legisladores se opondrán frontalmente a autorizar la circulación de estos coches, hasta que varios años de pruebas acumuladas les convenzan de su seguridad. Pero se mostró confiado en que esta evolución será inevitable. «Creo que llegará a ser algo normal. Antes había ascensoristas, y luego inventamos circuitería para que el ascensor supiera llegar a tu piso. Así serán los coches», sugirió. A continuación se zambulló en su Twitter para precisar que «Tesla está decididamente a favor de que a la gente se le deje conducir sus coches, y siempre lo estará», para luego añadir: «Sin embargo, cuando los coches autoconducidos sean más seguros que los conducidos por humanos, el público podría ilegalizar estos últimos. Espero que no».

Lo cierto es que muchas compañías con tradición de saber en qué invierten su dinero, como Google, Mercedes-Benz o la propia Tesla, entre otras, están desarrollando este tipo de tecnologías de conducción autónoma. Aunque su comercialización se vea aún muy lejana, si hemos de juzgar por la tendencia, parece que los expertos creen viable que algún día las carreteras se llenarán de coches conduciendo solos, comunicándose y cooperando entre ellos sin intervención humana. Según Musk, lo más complicado será lograr que estos sistemas funcionen en la franja entre los 20 y los 80 kilómetros por hora, en entornos urbanos y suburbanos con peatones, ciclistas, mucho tráfico cruzado y demás interferencias. En cambio, el tecnólogo cree que será más sencillo conseguirlo en un escenario de carreteras y autopistas, por encima de los 80 km/h.

Un tren automático de la línea 9 del metro de Barcelona. Imagen de Javierito92 / Wikipedia.

Un tren automático de la línea 9 del metro de Barcelona. Imagen de Javierito92 / Wikipedia.

Los sistemas de conducción automática llevan ya varios años introduciéndose con éxito en las redes de metro con distintos grados de autonomía, desde aquellos casos en los que el tren lleva un conductor que se encarga de abrir y cerrar las puertas y de supervisar el funcionamiento, hasta los casos en los que se prescinde por completo de la presencia humana, como en la lanzadera de la terminal T4 del aeropuerto de Barajas. Barcelona y Madrid se unen a la larga lista de ciudades del mundo que incorporan trenes automáticos, en la mayor parte de los casos aún con presencia de conductor. Pero parece evidente que el mayor obstáculo para que los trenes circulen sin maquinista ya no es tecnológico, sino psicológico: tal vez aún sea tranquilizador comprobar que al volante hay un ser humano. Sin contar con que habría muchos puestos de trabajo en peligro. Pero ¿qué habría ocurrido si el Alvia de la curva de Angrois hubiera circulado de forma autónoma?

Es evidente que el salto ahora es hacia arriba. Tirando de la última frase, el error humano está también detrás de la mayoría de los desastres aéreos, según datos de la web planecrashinfo.com. Aunque los expertos afirman que un avión no suele caer por una sola causa, sino más bien por una desafortunada concatenación, desde la década de 1950 el 53% de los accidentes aéreos se han debido a errores del piloto como razón primaria, ya sea única o unida a otras circunstancias meteorológicas o mecánicas que podrían haberse resuelto con un pilotaje más diestro. Por el contrario, los fallos mecánicos irresolubles fueron responsables del 20% de los accidentes. El resto se divide entre otras causas, como sabotajes u otros errores humanos, por ejemplo de mantenimiento o de control aéreo.

Merece la pena insistir: más de la mitad de todos los accidentes aéreos de la historia desde 1950 no se habrían producido sin el error humano. En la memoria quedan tragedias como la del mayor desastre en número de víctimas (583), el del aeropuerto tinerfeño de Los Rodeos en 1977, cuando dos Boeing 747 colisionaron en pista debido a un estúpido malentendido que llevó a un piloto a despegar cuando aún no tenía autorización. O el más reciente caso del vuelo de Spanair en 2008, cuyos pilotos trataron de levantar el vuelo con una configuración errónea de las alas. O la casi incomprensible caída al mar del vuelo 447 de Air France en 2009, causada porque un inexperto copiloto malinterpretó el comportamiento de su avión y se empeñó repetidamente en hacer justo lo contrario de lo que debía. Por no hablar de los casos en los que ha sido el piloto quien ha estrellado deliberadamente la nave, ahora de triste actualidad y de insólita frecuencia, ya que se sospecha que el vuelo de Malaysia Airlines desaparecido hace un año pudo sufrir un destino similar.

Ahora, cabría preguntarse no solo si la idea de confiar nuestra seguridad a aviones autoguiados es posible, sino también si es deseable. Respecto a esto último, el concepto espeluznará a muchos, y sería de esperar que contara con la repulsa general. Respecto a si es viable, el titular es que depende de quién opine. Según el piloto y bloguero Patrick Smith, la idea de que actualmente los aviones vuelan solos está «ridículamente alejada de la realidad». «La prensa y los comentaristas repiten esta basura constantemente, y millones de personas llegan a creérselo», escribe Smith.

Otros, como Stephen Rice, psicólogo especializado en ingeniería y concretamente en el factor humano de la aviación, aseguran que «la tecnología ya está ahí; los aviones modernos podrían despegar, volar y aterrizar solos», según comentaba a la web BuzzFeed. En la misma línea, el director del programa de aviones no tripulados de la Universidad Estatal de Nuevo México, Doug Davis, señalaba a la BBC: «Creemos que los aviones no tripulados son la próxima gran transformación de la industria de la aviación». Y recientemente era nada menos que el director general de tecnología de Boeing, John Tracy, quien afirmaba: «Con respecto a los aviones comerciales, no tenemos ninguna duda de que podemos resolver el problema del vuelo autónomo».

El avión espacial Boeing X-37B en la base aérea de Vandenberg. Imagen de United States Air Force / Wikipedia.

El avión espacial Boeing X-37B en la base aérea de Vandenberg. Imagen de United States Air Force / Wikipedia.

El piloto automático ya ha cumplido los cien años. Los primeros sistemas rudimentarios se limitaban a mantener la altitud y el rumbo durante el vuelo de crucero. En 1930, la revista Popular Science Monthly informaba sobre un dispositivo que permitía «guiar un avión en su curso durante tres horas sin ayuda humana». Los sistemas actuales, concebidos para casos de condiciones meteorológicas extremas, permiten incluso llevar un avión a tierra sin intervención directa de la tripulación, que puede limitarse a supervisar el proceso. El ejército de EE. UU. cuenta con el Boeing X-37B, un pequeño transbordador espacial no tripulado, y el Northrop Grumman X-47B, un avión de combate semiautónomo. Por supuesto, el «semi» no es un compromiso satisfactorio: ningún pasajero querría subir a un dron dirigido por control remoto; de haber un humano a los mandos, preferiríamos que compartiera nuestro destino, y no que abandonara los controles para irse a la sala de café cuando nosotros estamos a 30.000 pies de altura. Pero la británica BAE Systems ya ha probado su Jetstream autónomo por el espacio aéreo de Reino Unido con una tripulación humana que se limitaba a mirar.

Hoy todavía el piloto automático es como nuestros ordenadores personales; lo que el director del Instituto de Investigación en Inteligencia Artificial (IIIA) del CSIC, Ramón López de Mántaras, llama «sabios idiotas». En el vuelo 447 de Air France, el error del copiloto se produjo después de que el sistema automático se desconectara porque la congelación de las sondas externas le impedía conocer los parámetros de vuelo, por lo que dejó el control en manos de los tripulantes. En casos como este, el factor humano es imprescindible, aunque en aquel caso concreto no hiciera sino empeorar la situación. Pero los avances en inteligencia artificial también se están aplicando a la aviónica, y ya se experimenta con sistemas capaces de aprender de la experiencia.

Tal vez toda esta cuestión no tendría mayor recorrido si las aerolíneas pudieran garantizarnos que siempre volaremos bajo el mando de un piloto veterano, experto, curtido en mil adversidades, emocionalmente estable y psicológicamente férreo. Pero obviamente no es así, y nunca lo será. Y si en el futuro se nos llegara a presentar la elección entre confiar nuestra seguridad a una máquina (supongamos que casi) perfecta o asumir la posibilidad de viajar a merced del capricho de un sujeto perturbado, profesional-personal-emocionalmente inmaduro al que le acaba de dejar la novia, este que suscribe no tendría ninguna duda.

¿Qué significa que Alonso sufrió «una descarga eléctrica de 600 vatios»?

Debo empezar aclarando que no tengo la menor idea sobre Fórmula 1 y que no soy seguidor de este deporte, si es que puede calificarse de tal sin que rechine la pantalla. Pero la semana pasada leí algunos titulares de prensa en los que un expiloto declaraba que Fernando Alonso había sufrido «una descarga de 600 vatios», e imagino que tal vez algunos aficionados con cierto conocimiento habrán barruntado que al asturiano se le estaba tratando como si fuera una tostadora o una minipímer, ya que el vatio es una unidad de potencia.

En efecto, afirmar que alguien es víctima de una descarga de 600 vatios no dice absolutamente nada. Es una cifra vacía, un dato de por sí completamente irrelevante, tanto como si escribimos que un hombre de 80 kilos sufrió una caída o que un coche de 200 caballos se estrelló contra un muro. Lo realmente importante sería saber desde qué altura cayó el hombre, si fueron dos metros o doscientos, o a qué velocidad circulaba el coche, si a dos kilómetros por hora o a doscientos.

En cuanto a la electricidad, suele decirse que son los amperios los que matan. Lo que realmente determina la gravedad de una descarga eléctrica, la diferencia entre el calambre y la electrocución, es la intensidad de la corriente que recorre el cuerpo de una persona, una magnitud que se mide en amperios. Pero siendo así, ¿por qué siempre se habla de las descargas en voltios y no en amperios?

La respuesta es que, cuando alguien sufre un accidente con una instalación eléctrica, el único parámetro conocido y objetivable es la tensión o diferencia de potencial en la línea. Este es un valor fijo; por ejemplo, 12 voltios para la batería de un coche, 230 voltios en el caso de un enchufe casero, o entre 1.000 y 400.000 voltios para las líneas de alta tensión.

En cuanto a la corriente (los amperios), podemos saber cuál es la que lleva el cable; pero si nosotros nos añadimos al circuito, lo importante es la intensidad que atraviesa nuestro cuerpo, y este no es un valor constante para todas las situaciones. Podemos calcularlo gracias a la vieja y fiable Ley de Ohm:

V = I × R

Es decir, la diferencia de potencial o tensión eléctrica es igual al producto de la intensidad por la resistencia. Por tanto:

I = V ⁄ R

Así, para calcular la intensidad, los amperios, no solo necesitamos conocer el voltaje sino también la resistencia, que se mide en ohmios. La resistencia mide la oposición del material al paso de la corriente; un metal como el hierro, que es buen conductor, tiene una resistencia mucho menor que un aislante eléctrico como la goma o el cristal. El cuerpo humano es un mal conductor de la electricidad, sobre todo la piel, pero su resistencia varía enormemente en función de que esté seca o mojada. Algunas cifras que se manejan hablan de que un cuerpo humano seco puede tener una resistencia de unos 100.000 ohmios, descendiendo a solo 1.000 si la piel está humeda.

Esta diferencia de resistencia puede ser cuestión de vida o muerte si sufrimos una descarga eléctrica. Así ocurre cuando estamos secos:

I = V / R = 230 / 100.000 = 0,0023 A = 2,3 miliamperios (mA)

Una corriente de 2,3 miliamperios nos produce un simple calambrazo. Veamos, en cambio, qué sucede cuando estamos mojados y nuestra resistencia se desploma hasta los 1.000 ohmios:

I = V / R = 230 / 1.000 = 230 mA

Aunque los daños dependen del tiempo que dure la descarga, una corriente de 230 miliamperios provoca fibrilación ventricular, daños nerviosos, contracción muscular y, probablemente, la muerte.

En todos los casos, hay que tener en cuenta que sufrimos una descarga eléctrica porque abrimos a la corriente una vía de paso a través de nuestro cuerpo; la electricidad nos atraviesa porque encuentra una diferencia de potencial y corre para nivelarla, del mismo modo que una pelota rueda cuesta abajo para reducir su energía. Por eso tocar una línea eléctrica con una sola mano llevando suelas de goma es infinitamente más seguro que hacerlo con los pies descalzos, especialmente si están mojados. Y por esta razón un pájaro puede posarse en una línea de alta tensión sin sufrir ningún daño, ya que sus dos patas se encuentran al mismo potencial y la corriente no encuentra ningún motivo para atravesar su cuerpo.

Un ejemplo de cómo la resistencia modifica los efectos de la electricidad lo encontramos en la película de Frank Darabont La milla verde (1999), basada en una novela de Stephen King. Cuando se ejecuta a un reo en la silla eléctrica, se coloca sobre su cabeza y bajo el electrodo una esponja empapada en solución salina para disminuir la resistencia al paso de la corriente y, teóricamente, lograr que esta detenga el corazón sin causar otros daños; algo que obviamente no se consigue, ya que el cuerpo es un mal conductor. Con una tensión de 2.000 voltios, la corriente que atraviesa el cuerpo es de unos letales 2 amperios.

En la película, un guarda malintencionado evita mojar la esponja al colocarla en la cabeza del preso Eduard Delacroix. Con la esponja seca, la electricidad encuentra una resistencia mucho mayor y se dispersa por la piel. La corriente no es inmediatamente mortal, pero causa un dolor extremo y daños corporales demoledores mientras los guardas prolongan la duración de la descarga para acabar con la vida del reo, que queda convertido en una especie de calefactor de resistencia humana al transformar en calor una buena parte de la energía eléctrica. Podemos pensar en las bombillas tradicionales con filamento de tungsteno, un material que conduce la electricidad mejor que el hierro y que a pesar de ello desperdicia el 95% de la energía en forma de calor, motivo por el cual estas lámparas se han ido retirando de la circulación. En el caso de un ser humano, el resultado es que literalmente el cuerpo se cocina vivo entre inmensos sufrimientos.

Aunque no hay registros de casos como el de la película, sí se produjo algo parecido en la ejecución de Jesse Tafero, un preso ajusticiado en Florida en 1990. Según se cuenta, el día señalado no se disponía de una esponja natural, y los guardas emplearon una sintética comprada en un comercio local. Incluso empapada en solución salina, una esponja de baño fabricada en plástico conduce la electricidad mucho peor que una natural. El resultado fue que Tafero tardó siete minutos en morir después de tres descargas consecutivas, y durante el proceso su cabeza ardió en llamas.

En este vídeo se compara el efecto mostrado en La milla verde con un experimento real llevado a cabo para un documental, en el que se simula el caso de Tafero con el cadáver de un cerdo. Después de la descarga, puede verse cómo la cabeza del animal chorrea grasa fundida.

Pero volviendo al caso que motivaba este artículo: ignoro por completo si un coche de Fórmula 1 utiliza baterías de 12 voltios como cualquier turismo, pero incluso esta pequeña tensión puede ser peligrosa si la corriente que nos atraviesa está en el rango de los 10 o 15 miliamperios, ya que a este nivel los daños empiezan a ser ostensibles y se experimenta ese típico efecto de «quedarse pegado». Es por esto que las baterías de automóvil se emplean como instrumentos caseros de tortura.

Pero además, y según leo en la Wikipedia, los coches de Fórmula 1 disponen de un sistema llamado KERS que recicla la energía de la frenada para aumentar la potencia, como ocurre en los trenes, y que en los sistemas autorizados puede proporcionar hasta 120 kilovatios de potencia durante 6,67 segundos. A falta de otros datos, lo que parece claro es que el voltaje debe ser alto para mantener la intensidad de corriente en un rango adecuado para los cables normales; probablemente de cientos de voltios, y por tanto más que suficiente para matar. Alguna web apunta que estos sistemas están preparados para un máximo de 500 voltios y 1.000 amperios, y un artículo menciona que los mecánicos llevan guantes aislantes hasta los 1.000 voltios. Si realmente Alonso sufrió una descarga y si se originó en este sistema, bien podría decirse que tiene suerte de seguir vivo.

Por si alguien desea entretenerse con algunos cálculos, la potencia eléctrica producida por una corriente atravesando una diferencia de potencial nos la da la primera Ley de Joule:

P= V x I,

donde P es la potencia expresada en vatios.