Entradas etiquetadas como ‘tecnología’

Los Nobel de Física y Química premian los chips prodigiosos

Si no fuera porque no es así como funciona, se diría que los comités de los Nobel de Física y Química de este 2016 se han puesto de acuerdo para premiar un mismo campo, las nanocosas del nanomundo. Dirán ustedes que gran parte del trabajo de la física, la química y la biología consiste precisamente en indagar en todo aquello que no podemos ver a simple vista, y no se equivocarán. Si fuera posible miniaturizarnos –esta semana volví a ver aquella divertida película de Dante y Spielberg, El chip prodigioso–, la naturaleza no tendría misterios para nosotros. No habría nada que investigar; bastaría con abrir los ojos y ver qué pasa.

Fotograma de la película 'El chip prodigioso' (1987). Imagen de Warner Bros.

Fotograma de la película ‘El chip prodigioso’ (1987). Imagen de Warner Bros.

Pero dentro de todo ello, hay un área transversal de la ciencia que se dedica específicamente a explorar cómo es el paisaje a esa escala diminuta, cómo son sus montañas, valles y costas, y a fabricar aparatos que puedan desenvolverse en ese entorno de lo diminuto del mismo modo que lo hace un rover en Marte. No es un minimundo ni micromundo, ya que el prefijo «micro» comprende los tamaños en el rango de la célula y sus partes. La unidad de medida allí es el nanómetro, la millonésima de milímetro, y desde ahí hacia abajo. En algún momento, los científicos comenzaron a referirse a ese mundo añadiéndole un «nano»: nanotecnología, nanoingeniería, nanociencias.

Nuestro mundo tiene sus formas, lo que llamamos el relieve topográfico. Esas formas pueden cambiar a lo largo del tiempo debido a fuerzas de la naturaleza, pero siguiendo ciertas reglas: cuando en una montaña se ha horadado una cueva, un derrumbamiento podrá hacerla desaparecer, pero la montaña no puede deshoradarse y volver a quedar como estaba. Y un río no puede correr sobre la cumbre de una montaña.

Hay una rama de las matemáticas que estudia las formas, o topos, y cómo pueden transformarse unas en otras a través de transiciones permitidas: por ejemplo, se puede deformar, pero no cortar y pegar. Una hoja de papel puede convertirse en una silla de montar, pero no en una bola. La topología se aplica a áreas de las matemáticas como el álgebra y la geometría, pero también a la física.

El funcionamiento de la materia está relacionado con su estructura. Por ejemplo, un metal conduce la electricidad porque permite el libre movimiento de los electrones. Algunos físicos exploran las fronteras de ese nanomundo, los límites exóticos de la materia donde aparecen propiedades inusuales; por ejemplo, los semiconductores o los superconductores. Como los paisajes, esa materia tiene sus formas y sus reglas, lugares inaccesibles por donde un río no puede discurrir, o un electrón no puede moverse. De la aplicación de la topología a estas formas exóticas de la materia y a sus cambios (como de sólido a líquido) pueden aprovecharse algunas de esas propiedades raras. La capacidad de manipular y controlar a voluntad la conductividad de un material es la base de toda la tecnología electrónica que utilizamos hoy.

El Nobel de Física 2016 ha premiado a los británicos (los tres trabajando en EEUU) David Thouless, Michael Kosterlitz y Duncan Haldane por haber sentado en los años 70 y 80 las bases de esa topología de la materia exótica y de sus transiciones de fase. Por cierto que el padre de Kosterlitz, Hans, bioquímico, se quedó a un paso del Nobel como uno de los descubridores de las endorfinas.

En ese nanopaisaje, a partir de los años 80 algunos investigadores empezaron a construir máquinas, sistemas formados por piezas que se mueven cuando se les aplica energía, del mismo modo que una batidora gira cuando se enchufa a la red eléctrica. Las piezas de estas máquinas son moléculas, diseñadas con una forma específica que les permite desempeñar la función deseada una vez que ocupan su lugar, tal como hacen los ingenieros industriales. La primera de estas piezas, obra del francés Jean-Pierre Sauvage en 1983, era una simple cadena de dos eslabones que permitía el movimiento libre.

La nanoingeniería de máquinas se inspira en la propia naturaleza. Unos años antes habían comenzado a descubrirse los primeros nanomotores (máquinas rotativas) naturales, comenzando por el flagelo que emplean algunas bacterias para propulsarse en el agua y que consiste en un mecanismo giratorio. En 1991, el escocés Fraser Stoddart logró construir un nanoanillo que podía girar y desplazarse alrededor de un eje. Ocho años después, el holandés Bernard Feringa construía el primer nanomotor, una especie de ventilador de una sola aspa.

Sauvage, Stoddart y Feringa han sido premiados con el Nobel de Química 2016. Desde entonces se han construido nuevas nanomáquinas, como nanoascensores o nanocarretillas. Algunas de ellas se inspiran en mecanismos previamente inventados por la naturaleza; por ejemplo, nuestros músculos funcionan gracias a una nanomáquina deslizante, un sistema similar al que también sirve para que nuestras células expulsen al exterior ciertas sustancias, como moléculas de defensa contra infecciones.

Nanocoche Nanobobcat, de la Universidad de Ohio. Imagen de OU.

Nanocoche Nanobobcat, de la Universidad de Ohio. Imagen de OU.

Se espera que en el futuro una de las principales aplicaciones de las nanomáquinas sea la medicina. Como en El chip prodigioso, pero con un Dennis Quaid molecular. También servirán para usos como construir nuevos sensores y sistemas de almacenamiento de energía. Por el momento, una de las ramas más sorprendentes de la nanoingeniería es la fabricación de nanocoches, máquinas capaces de desplazarse sobre una superficie utilizando una fuente de energía, por ejemplo la luz.

De hecho, este año se celebrará en Toulouse (Francia) la primera carrera mundial de nanocoches, como expliqué con detalle en un reportaje a finales del año pasado. Varios laboratorios del mundo han presentado sus prototipos de lo más variado, como una versión nanoscópica de Los autos locos. Estaba previsto que la carrera se celebrara el 14 y 15 de este mes, pero los organizadores han decidido posponerla para dejar algo más de tiempo a las nanoescuderías para que pongan a punto sus modelos, que deberán correr sobre una pista de oro en el vacío a -268 ºC.

B. V. Larson: «Los autores de ciencia ficción somos cheerleaders de la innovación»

Mañana, 21 de septiembre de 2016, H. G. Wells habría cumplido 150 años.

Si volviese hoy, no nos encontraría viajando en el tiempo, volviéndonos invisibles o recuperándonos de una invasión marciana, pero sí descubriría que aún seguimos pensando, debatiendo y escribiendo sobre todo esto.

Y es que tal vez el mayor legado de los grandes maestros de la ciencia ficción sea su capacidad de haber sembrado ideas que se perpetúan ejerciendo una poderosa influencia, no solo en los autores posteriores, sino también en el propio pensamiento científico.

B. V. Larson. Imagen de YouTube.

B. V. Larson. Imagen de YouTube.

Mañana tocará hablar de Wells, pero hoy quiero abrir boca con uno de sus muchos herederos. Recientemente tuve ocasión de hacer esta breve entrevista al californiano B. V. Larson. Conocido sobre todo por su serie Star Force, Larson es un autor inexplicablemente prolífico que ha forjado su carrera por la vía de la autopublicación. Una elección que le ha funcionado de maravilla, a juzgar por su presencia habitual en la lista de Amazon de los más vendidos en ciencia-ficción.

Larson posee un fenotipo que interesa especialmente a este blog: es uno de los numerosos autores de ciencia-ficción que han surgido desde dentro, desde el mundo de la ciencia y la tecnología. En su caso, es profesor en ciencias de la computación y autor de un exitoso libro de texto que continúa reeditándose.

Según me cuenta, en un momento de su vida trabajó como consultor de DARPA, la agencia de investigación del Departamento de Defensa de EEUU, en la Academia Militar de West Point. Con todo este equipaje, Larson es el tipo ideal a quien hacerle algunas preguntas sobre la relación entre la ciencia y su versión ficticia.

¿Cómo se relaciona la ciencia-ficción con el progreso científico y tecnológico?

No hay duda de que la ciencia-ficción influye en la innovación, pero también lo contrario. En la mayoría de los casos, es difícil decir cuál de las dos comienza el proceso. Los autores de ciencia-ficción son futurólogos que leen las nuevas tendencias en la industria y la ciencia, convirtiéndolas en historias de ficción con extrapolaciones. A su vez, los ingenieros leen estas historias y obtienen inspiración. En otras palabras, para entender el proceso yo pensaría en el papel del escritor creativo y el mundo real de la ingeniería, ambos como partes de un ciclo de innovación.

¿Hay algunas épocas en las que esta influencia haya sido mayor?

Yo diría que la ciencia-ficción fue muy importante desde 1900 hasta la década de 1970, pero menos de 1980 a 2010. Solo ahora está volviendo a ser lo que fue. ¿Por qué? Porque en los 30 años entre 1980 y 2010, la mayoría de la ciencia-ficción que se leía ni siquiera intentaba ser técnica, sino que se centraba en cuestiones sociales. Esto está cambiando ahora, y la ciencia-ficción está volviendo a ser lo que fue originalmente y a recapturar el corazón de los ingenieros.

Se suele hablar del papel de los autores como profetas tecnológicos. ¿Hasta qué punto no predicen, sino que marcan el camino a seguir?

Los ingenieros son quienes merecen la mayor parte del crédito. Los escritores de ciencia-ficción sirven para inspirar, para atraer a la gente joven a expandir el mundo a través de la tecnología, más que para hacer posible lo imposible. Somos más bien cheerleaders, oradores motivacionales, más que poderosos magos. Puede parecer que predecimos el futuro, pero lo que realmente hacemos es estudiarlo y pensar sobre él para hacer predicciones lógicas.

¿Y cuáles serían ahora esas predicciones? ¿Habrá algo de esos avances típicos del género y siempre pendientes, como coches voladores, naves espaciales más rápidas, reactores personales…?

Yo diría que la mayor parte de esas áreas ya han tenido su oportunidad. Piensa en un avión de pasajeros: si volvieras a 1975 y subieras a un avión, la experiencia, la velocidad de vuelo y todo lo demás sería prácticamente igual que hoy. Esto es normal en tecnología. Una vez que una tecnología nueva y poderosa se hace realidad, hay un período de unos 50 años de innovación muy rápida, y después se frena. Con los aviones, pasaron menos de 40 años desde el primer vuelo de los hermanos Wright hasta el ataque japonés a Pearl Harbor con bombarderos. Poco después teníamos aviones volando a todas partes. Y después nada. No ha habido cambios reales en 40 años.

Entonces, ¿qué áreas están ahora en ese período de innovación rápida?

Yo esperaría grandes cambios en el área de la biología. Pastillas que te permitan vivir 10 o 20 años más. Órganos impresos en 3D para reemplazar los dañados. O quizás nanites [nanorrobots] que practiquen nanocirugía dentro de nuestro cuerpo. Implantes cibernéticos, ese tipo de cosas. En eso se centra mi serie Lost Colonies.

Un robot viola la primera ley de Asimov

Así dicho, podría sonar a pompa y artificio. De un vistazo superficial, podría parecer que el hecho de que una máquina haya causado daños, por suerte leves, a un niño, no pasaría más allá de cualquier otro accidente de un humano con un aparato; como, digamos, el que se pilla la corbata con la trituradora de documentos.

Pero cuando la máquina es un sofisticado robot de seguridad dotado de casi 30 sensores ad hoc y programado para vigilar a los malos y proteger a los buenos, entonces ahí lo tenemos, y no puede ser más literalmente cierto: «un robot no hará daño o, por inacción, permitirá que un ser humano sufra daño», Isaac Asimov dixit en la primera de sus famosísimas Tres Leyes de la Robótica.

Los hechos: el Centro Comercial de Stanford, en Palo Alto (California), cuenta en su plantilla con los K5 de Knightscope, una especie de Robocops con ruedas –aunque su aspecto recuerda más a R2D2– de metro y medio de alto y unos 130 kilos de peso que patrullan por el centro para servir de apoyo a los guardias de seguridad humanos. Cuando el K5 detecta alguna anomalía, como un ruido inusual o un cambio brusco de temperatura, o cuando detecta a algún criminal fichado… no, no dispara; se limita a alertar a sus jefes basados en el carbono.

El K5 de Knightscope. Imagen de Knightscope.

El K5 de Knightscope. Imagen de Knightscope.

Dado que el centro comercial está situado en el Silicon Valley, nada más apropiado que un vigilante robótico. Pero dado que una de las virtudes del K5 es que sale más barato que un guardia de carne y hueso, a unos 6,25 dólares la hora, nada más apropiado para rescatar la vieja polémica que se remonta a los tiempos de la Revolución Industrial.

El caso es que el pasado 7 de julio, una familia se encontraba visitando el centro comercial cuando el pequeño de 16 meses Harwin Cheng resultó arrollado por un K5. El robot pasó por encima de su pie, causándole un golpe de morros contra el suelo, arañazos en la pierna y una inflamación, además de un susto de muerte.

Como era de esperar, hay una diferencia sustancial entre la versión de la familia y la de Knightscope. La madre del niño, Tiffany, dijo a ABC7 News: “El robot golpeó a mi hijo en la cabeza y él cayó de cara hacia el suelo, y el robot no se detuvo y siguió avanzando”. Por su parte, según The Verge, Knightscope declaró en un comunicado que “el niño abandonó la vecindad de sus guardianes y comenzó a correr hacia la máquina. La máquina giró a la izquierda para evitar al niño, pero el niño corrió hacia atrás directamente hacia el frente de la máquina, momento en que la máquina se detuvo y el niño cayó al suelo”.

Naturalmente, ante tal discrepancia caben pocas dudas sobre qué versión creer, aunque solo sea porque la de Knightscope no explica claramente las lesiones del niño; la empresa asegura que los sensores del robot no detectaron vibración, como debía haber ocurrido al pasar sobre un pie. Incluso el Roomba de iRobot, esa aspiradora casera que se convirtió en la primera máquina de uso doméstico admitida en el Salón de la Fama de los Robots de la Universidad Carnegie Mellon, sabe detenerse cuando encuentra un obstáculo.

Por otra parte, quienes tenemos hijos también sabemos que, cuando se empeñan, no existe robot en la galaxia capaz de esquivarlos. Sea como fuere, la compañía ha presentado sus disculpas a la familia y la ha invitado a conocer sus instalaciones, aunque no está claro si a los Cheng les quedarán ganas. Por el momento, los K5 del centro comercial han tenido que entregar sus placas y han quedado suspendidos de empleo y sueldo.

Aunque afortunadamente el suceso no ha pasado de anécdota, ilustra una situación que sin duda se repetirá con mayor frecuencia a medida que nuestra interacción con los robots se vaya multiplicando. Y lo peor de todo es que no siempre los casos que puedan presentarse estarán tan fácilmente cubiertos por las tres sencillas reglas de Asimov. Algo que escapa a este código básico y que últimamente ha sido objeto de comentarios es el dilema moral, especialmente en el caso de los coches robotizados autónomos que Tesla y otras compañías quieren popularizar en los próximos años.

El pasado mayo, un coche autónomo Tesla causó la muerte de su único ocupante cuando no pudo esquivar un camión que se interpuso de repente. Al parecer, el vehículo viajaba en modo de piloto automático mientras su conductor veía una película de Harry Potter, y los sensores del coche no distinguieron el camión blanco contra el cielo luminoso. La semana pasada se produjo otro accidente de un Tesla, esta vez sin daños. Aquí no hay debate posible: fue un error de la tecnología que revela sus imperfecciones.

Pero imaginemos esta otra situación: un coche autónomo circula con ocupantes en su interior, cuando de repente se encuentra inesperadamente con un obstáculo en el camino sin tiempo para frenar. Tiene dos opciones: estrellarse, poniendo en riesgo las vidas de sus pasajeros, o eludir el obstáculo y arrollar a un grupo de peatones. ¿Cuál es la decisión correcta? ¿Depende de si hay más personas dentro del coche o en la acera? ¿De si hay niños? ¿Podrán los afectados o sus familiares demandar al fabricante del coche? ¿Querría algún fabricante arriesgarse a perder una demanda con indemnizaciones millonarias?

El pasado junio, un estudio publicado en Science reunía una serie de encuestas que planteaban este dilema. La mayoría de los encuestados pensaban que el coche debería optar por sacrificar a sus ocupantes, aunque opinaban que esto no debería regularse por ley. Y como consecuencia de todo ello, se mostraban reacios a montar en coches que podrían tomar la decisión de liquidarlos para no dañar a otros.

La realidad puede ser más complicada que la ficción. Y si algo queda claro, es que tres leyes no bastan.

China termina su inmenso buscador de aliens

A partir de septiembre, la atención de todos aquellos interesados en la búsqueda de vida alienígena inteligente se volverá hacia un remoto rincón del condado chino de Pingtang, en la provincia de Guizhou. Allí, el Observatorio Astronómico Nacional de la Academia China de Ciencias acaba de anunciar la colocación del último de los 4.450 paneles triangulares del Telescopio Esférico de Apertura de 500 Metros (conocido por sus siglas en inglés como FAST), el que desde ahora es el mayor radiotelescopio del mundo de plato único y reflector primario fijo.

El radiotelescopio FAST (China). Imagen de NAOC.

El radiotelescopio FAST (China). Imagen de NAOC.

El telescopio será un instrumento de investigación astronómica abierto a la colaboración internacional en todo tipo de proyectos. Sin embargo, sus responsables han precisado que uno de sus objetivos será la búsqueda de posibles señales de radio de origen inteligente, emulando a la que hasta ahora ha sido la mayor instalación del mundo del mismo tipo, el radiotelescopio de Arecibo en Puerto Rico, de 300 metros de diámetro.

Aunque la construcción ha durado cinco años, con una inversión de 167 millones de euros, el origen del proyecto se remonta a 1994. La idea era seguir el modelo de Arecibo, donde el plato esférico está acostado en una hoya cárstica natural, lo que facilita la construcción, el drenaje y el mantenimiento. Los ingenieros chinos recorrieron el país hasta dar con un paisaje similar, una remota hondonada sin apenas interferencias de radio donde 65 aldeanos vivían sin electricidad y desconectados del mundo.

Naturalmente, los aldeanos debieron ser desalojados, junto con casi otros 10.000 que vivían en los alrededores. Y naturalmente, tratándose de China, los medios oficiales informaron de lo contentos que estaban los habitantes locales de abandonar sus hogares para dejar paso a aquella gran obra de ingeniería y ciencia. Según la agencia Xinhua, “los habitantes de las comunidades cercanas admiraron su suerte, diciendo que debían estar agradecidos a los aliens”. Los aldeanos fueron reubicados en otras poblaciones.

El FAST tiene algunas diferencias con Arecibo. En primer lugar, el reflector primario de Puerto Rico es totalmente fijo y esférico, mientras que la superficie del FAST es deformable en parábola, como los platos de los radiotelescopios orientables. En realidad esto reduce la apertura efectiva (la superficie útil) a algo más de 300 metros. Es decir, que si estuviera en España, probablemente se le llamaría el radiotelescopio de las dos mentiras: ni es esférico, ni tiene 500 metros de apertura. Existe otro radiotelescopio individual aún mayor, el RATAN-600 de Rusia, de 576 metros de diámetro, pero este no está compuesto por una superficie única, sino por 895 paneles rectangulares orientables por separado.

Vista parcial del radiotelescopio de Arecibo (Puerto Rico). Imagen de Javier Yanes.

Vista parcial del radiotelescopio de Arecibo (Puerto Rico). Imagen de Javier Yanes.

Para que se hagan una idea de la comparación de dimensiones entre estos telescopios, he hecho esta composición de imágenes de Google Earth, todas ellas correspondientes a una altura del punto de vista de dos kilómetros. Para apreciar la escala, incluyo una imagen de lo más próximo que tenemos por aquí, la estación de la Deep Space Communications Network en Robledo de Chavela (Madrid), y añado también una vista del centro de Madrid y otra del puerto de Barcelona a la misma escala.

Comparación de tamaños a escala del FAST, Arecibo, RATAN-600, la estación de seguimiento de Robledo de Chavela, el centro de Madrid y el puerto de Barcelona. Imágenes de Google Earth, altura del punto de vista: dos kilómetros.

Comparación de tamaños a escala del FAST, Arecibo, RATAN-600, la estación de seguimiento de Robledo de Chavela, el centro de Madrid y el puerto de Barcelona. Imágenes de Google Earth, altura del punto de vista: dos kilómetros.

El FAST comenzará próximamente sus primeras pruebas para la puesta a punto y el debugging, y está previsto que en septiembre comience a operar. Con esta gran instalación, China prosigue en su revolución científica que pretende situar al país a la cabeza de la ciencia mundial en 2049, con el centenario de la fundación de la República Popular. Esperemos que también mejore la transparencia informativa para que, si algún día realmente llegan a encontrar algo que pueda ser un indicio de algo, todos podamos enterarnos.

Una hipótesis hace posible el propulsor imposible EmDrive

Prueben a saltar una valla apoyando el pie en sus propias manos. O a empujar un coche desde dentro. Imposible a la par que absurdo, ¿no?

Dadme un punto de apoyo y moveré el mundo, decía Pappus de Alejandría que dijo Arquímedes a propósito de la palanca. Ese punto de apoyo sirve como interacción del sistema con su exterior. En la palanca es el fulcro, pero si levantamos un peso sin más ayuda, el punto de apoyo son nuestros pies en el suelo.

Muchos siglos después de Arquímedes, Newton dio un sentido físico a lo que el matemático siciliano solucionó como un problema de geometría. En su tercera ley del movimiento, popularmente conocida como ley de acción y reacción, Newton vino a decir que a toda fuerza (acción) se opone otra igual y contraria (reacción).

Cuando levantamos un peso, la fuerza que ejercemos sobre el suelo aumenta. El suelo nos devuelve una fuerza también mayor y nos permite vencer esa resistencia del peso. Pero si tratamos de auparnos sobre nuestra propia mano o empujar el coche desde dentro, no recibimos ese empujón del suelo –nuestro punto de apoyo– que nos permita cambiar el movimiento del objeto que tratamos de mover –nosotros mismos o el coche–.

En términos físicos, esto se expresa con una magnitud llamada cantidad de movimiento, o p (y que se calcula como masa por velocidad, m⋅v). Cuando levantamos un peso, su cantidad de movimiento, que inicialmente es cero, aumenta hasta un valor relacionado con su velocidad. La imposibilidad de empujar el coche desde dentro se explica porque en la interacción entre dos objetos, la p total permanece constante. Y dado que en este caso no hay interacción con el exterior (ese punto de apoyo), por mucho que nos esforcemos no lograremos cambiar p, y por tanto el coche no se moverá ni un milímetro.

Cuando levantamos el peso, el suelo nos detiene. Pero si se trata de dos objetos en movimiento libre, como dos bolas de billar que chocan, el resultado de la colisión es que la suma de sus p después de chocar es la misma que antes. Es un principio universal de la física, la conservación de la cantidad de movimiento. ¿Saben de aquellos juguetes de escritorio que fueron tan populares en los años 70, con varias bolitas suspendidas en fila de manera que, al hacer chocar una contra las demás, la del otro extremo responde moviéndose? Péndulo de Newton; demostración de la conservación de la cantidad de movimiento.

En la física de Newton, la masa de un objeto es una constante que determina la relación entre la fuerza que aplicamos a un objeto y la velocidad que adquiere. Por eso se llama masa inercial; la inercia es lo que hace que una masa, como una bola de billar empujada, continúe moviéndose mientras no haya otra fuerza que la detenga: una mano en su camino o el simple rozamiento con la mesa.

La conservación de p explica también cómo funcionan los reactores. Un avión a reacción se mueve porque expulsa un propelente en sentido contrario a su avance, como cuando soltamos un globo inflado sin anudar. En este caso, la velocidad de la nave y la velocidad a la que se expulsa el propelente están relacionadas a través de las masas de ambos. Y también en este caso, la p total no varía.

A comienzos de este siglo, un ingeniero británico llamado Roger Shawyer comenzó a desarrollar un propulsor conocido como EmDrive, o propulsor de cavidad resonante de radiofrecuencia. Es tan simple como un cono truncado de metal en cuyo interior se hacen rebotar microondas, y esto genera un impulso hacia el extremo más estrecho del cono.

Todo ello sin combustible, sin propelente, sin partes mecánicas móviles, sin nada más que un generador de microondas. Un propulsor inagotable que podría acelerar una nave indefinidamente en un viaje a través de la galaxia por toda la eternidad… Suena bien, ¿no?

El EmDrive. Imagen de SPR.

El EmDrive. Imagen de SPR.

Pero claro, hay una pega. Y es que, por todo lo explicado arriba, se entiende que es completamente imposible que esto funcione: la p del propulsor aumentaría sin que ninguna otra cosa se la ceda, lo que violaría la ley de la  conservación. No hay expulsión de propelente ni ninguna otra fuerza ejercida hacia el exterior del cono. No hay acción y reacción. En resumen, es empujar el coche desde dentro. Con el agravante de que además no hay masas implicadas: las microondas no son otra cosa que luz. Así que es aún más absurdo: ni siquiera es intentar mover el coche desde dentro empujando el volante, sino más bien tratar de hacerlo empujando el volante con el rayo de una linterna. Y la luz no tiene masa.

¿O sí? Escoja usted dos físicos y recibirá dos respuestas diferentes. Para muchos físicos, los fotones (las partículas que forman la luz) simplemente no tienen masa, y punto. Pero otros no están tan de acuerdo: para ellos, el fotón no tiene masa en reposo, pero sí masa inercial. Lo que normalmente entendemos como masa es la masa en reposo. Y dado que un fotón nunca está en reposo, porque siempre se mueve a la velocidad de la luz, lo miremos desde donde lo miremos, no tiene masa en reposo.

Pero aplicando la ecuación de Einstein, E = m⋅c², que relaciona la masa con la energía a través del cuadrado de la velocidad de la luz, al menos algunos físicos le dirán que el fotón tiene una masa inercial teórica, o masa relativística. El fotón tiene una cantidad de movimiento p, que se puede calcular: E = m·c² = m·c·c. Masa por velocidad es p, luego E = p·c. Así que la cantidad de movimiento de un fotón, p, viene dada por su energía E: p = E/c. A su vez, la energía de un fotón se calcula a través de la frecuencia de la onda que lo acompaña, la cual varía inversamente con la longitud de la onda: a mayor frecuencia, menor longitud de onda, y viceversa.

Así, la p de un fotón depende solo de su energía; porque imaginemos lo que ocurre si no es así y suponemos que el fotón tiene masa: si realmente pudiéramos calcular su p como el producto de su masa por su velocidad, obtendríamos que esta no es constante (c), sino que variaría en función de su energía y por tanto de su frecuencia. Es decir, que la luz no viajaría a la velocidad de la luz, sino a una velocidad diferente según su frecuencia (o longitud de onda). Lo cual no parece muy ortodoxo.

Y pese a todo lo anterior, lo imposible ocurre: en los últimos años se ha demostrado que en el EmDrive se produce un pequeño efecto de propulsión. Pequeño, pero no cero, como debería ser. Y esto se ha mostrado no solo una vez, sino seis, en otros tantos experimentos de grupos independientes; uno de ellos trabajando para la NASA, aunque esta agencia no se sienta muy orgulloso de ello. Se ha descartado que sea un efecto del movimiento inducido en el aire, porque funciona también en el vacío. Contra todo pronóstico y contra lo que hoy la física da por sentado, aparentemente el EMDrive funciona. Pero ¿cómo?

Desde hace unos años, un físico de la Universidad de Plymouth llamado Mike McCulloch indaga en un nuevo modelo cosmológico basado en la masa inercial de las partículas. McCulloch tira de un fenómeno teórico compatible con la física relativista y que el canadiense William George Unruh predijo por primera vez en 1976. El llamado efecto Unruh propone que un objeto sometido a aceleración calienta el universo, y que esta temperatura depende de esa aceleración. El efecto es muy pequeño; es decir, que incluso con grandes aceleraciones el aumento de temperatura es minúsculo. Curiosamente, la fórmula a la que Unruh llegó para calcular esta temperatura es la misma que, de forma independiente, Stephen Hawking desarrolló para la radiación emitida por los agujeros negros y que eventualmente llevaría a su evaporación.

Algo que Unruh propuso, pero con lo que muchos físicos no están de acuerdo, es que el efecto Unruh produce una radiación; o sea ondas, con su frecuencia y su longitud. Según la relación de la fórmula de Unruh, con grandes aceleraciones los tamaños de estas ondas son manejables. Pero con aceleraciones muy pequeñas, que corresponden a temperaturas infinitamente minúsculas, lo que sucede es que las ondas comienzan a crecer a tamaños gigantescos, hasta que literalmente no caben en el universo. Y cuando esto ocurre, algo extraño sucede; siempre, claro, si la teoría es correcta: la longitud de la onda salta hasta un valor aceptable. Pero como hemos visto, si cambia el tamaño de la onda, también lo hace la energía, y por tanto la p de la partícula. Lo cual, como ya sabemos, está prohibido.

¿Qué pasa entonces? Para compensar esta diferencia y que p se mantenga constante, como debe ser, lo que ocurre es que cambia la masa inercial de la partícula, y con ello su movimiento. Por este motivo McCulloch afirma que la inercia, un fenómeno que evidentemente existe, pero que aún tiene una justificación física oscura, es consecuencia del efecto Unruh, y que se presenta en valores discretos correspondientes a esos saltos de las ondas. En otras palabras, que la inercia está cuantizada.

McCulloch ha aplicado esta teoría para explicar ciertas anomalías observadas en el movimiento de las sondas espaciales cuando pasan cerca de la Tierra. Es más, a través del efecto Unruh, McCulloch ha llegado a explicar por qué la rotación de las galaxias no las dispersa, algo que suele atribuirse a la presencia de materia oscura que las mantiene unidas. Según la hipótesis de McCulloch, el efecto Unruh explica la expansión cósmica y la cohesión de las galaxias sin necesidad de introducir materia oscura ni energía oscura, dos conceptos teóricos generalmente aceptados, pero no demostrados.

Ahora, McCulloch ha aplicado su teoría al EmDrive, y llega a la conclusión de que el efecto Unruh explica por qué funciona sin violar la conservación de la cantidad de movimiento. En este caso, dice el físico, el universo en el que se mueven las ondas es el cono. Cuando las microondas rebotan a lo largo del EmDrive hacia el extremo ancho, el salto de las ondas más grandes aumenta la masa inercial del fotón y su velocidad, lo que provoca un impulso en sentido contrario para ralentizar el fotón y conservar la cantidad de movimiento. Cuando el fotón se mueve hacia la boca estrecha, se reducen su masa inercial y su velocidad, lo que requiere también introducir una fuerza hacia ese extremo para aumentar la velocidad del fotón y que p permanezca constante. Y de este modo, el propulsor se mueve siempre hacia el extremo más fino, como demuestran los experimentos.

Claro que la explicación de McCulloch aún no convence. La pega fundamental es que la inercia cuantizada de McCulloch es como meter un elefante en el salón: no hay ninguna necesidad de hacerlo, pero una vez que se hace es necesario arreglar todos los destrozos. Al introducir la inercia cuantizada se producen descalabros que hay que arreglar mediante un mecanismo misterioso que no sería necesario proponer de no haber introducido la inercia cuantizada. Como es lógico, muchos físicos se resisten a creer que el fotón tenga una masa inercial cambiante y que un cono de metal sea capaz de hacer variar la velocidad de la luz en su interior.

Y pese a todo, lo más sorprendente es que McCulloch ha calculado las fuerzas que exprimentaría el EmDrive de acuerdo a su teoría, y los resultados se parecen sospechosamente a los valores reales medidos en los experimentos. Lo cual es motivo suficiente para, al menos, conceder a su hipótesis el beneficio de la duda. Algo que pronto podría resolverse: McCulloch ha elaborado también otras predicciones; por ejemplo, cómo habría que cambiar las dimensiones del cono para invertir la fuerza y que el propulsor se moviera hacia la boca ancha. Es de suponer que alguien ya estará poniendo en marcha experimentos como este, lo que tal vez en unos meses podría zanjar de una vez por todas si el EmDrive hace posible lo imposible.

Los transgénicos no hacen mal (pero tampoco el bien esperado)

He conocido pocos biólogos moleculares opuestos a los cultivos transgénicos. Y no porque vivan/vivamos de ello. Quienes sí lo hacen suelen trabajar en compañías, y no son esos los que conozco (no por nada). La explicación de esta postura mayoritaria entre los molbiols es simplemente la misma por la cual antes nos escondíamos de las tormentas a rezar para que Dios no nos fulminara con un rayo, mientras que hoy conocemos el fenómeno eléctrico atmosférico y podemos conocer, valorar y controlar sus riesgos reales.

Ciruelas transgénicas resistentes al virus de la sharka. Imagen de Wikipedia.

Ciruelas transgénicas resistentes al virus de la sharka. Imagen de Wikipedia.

Por supuesto, una excepción al sentido de esta insinuación son los conspiranoicos, que llegan a convertirse en verdaderos especialistas (si bien con un ojo tapado) en el tema de su conspiranoia favorita, que defienden sin importar la absoluta ausencia de pruebas; pero precisamente por esto se trata de un perfil psicológico peculiar, como conté aquí.

Naturalmente, en el caso de los conspiranoicos nada podrá hacerles abandonar su convencimiento, porque es apriorístico; no es un juicio, sino un prejuicio. Ni siquiera, en el caso de los cultivos transgénicos, un informe de 400 páginas en el que ha participado más de un centenar de expertos de las Academias Nacionales de Ciencia, Ingeniería y Medicina de EEUU, que durante dos años han evaluado 900 estudios publicados en las dos últimas décadas sobre los cultivos genéticamente modificados (GM), y del que destaco y cito las siguientes conclusiones:

«Los datos a largo plazo sobre la salud del ganado antes y después de la introducción de cultivos GM no muestran ningún efecto adverso asociado a los cultivos GM.»

«A los animales no les ha perjudicado alimentarse de comida derivada de cultivos GM.»

«El comité no encontró pruebas concluyentes de relaciones causa-efecto entre cultivos GM y problemas medioambientales. Sin embargo, la naturaleza compleja de evaluar cambios medioambientales a largo plazo a menudo dificulta llegar a conclusiones definitivas.»

«No se ha encontrado ninguna prueba sólida de que los alimentos de los cultivos GM sean menos seguros [para la salud humana] que los alimentos de los cultivos no-GM.»

«Las tecnologías genéticas emergentes han borrado la distinción entre el cultivo convencional y el GM, hasta el punto de que los sistemas reguladores basados en procesos son técnicamente difíciles de defender.»

¿Maíz transgénico? No: Quality Protein Maize (QPM), un mutante inducido "biofortificado". Al ser una variedad creada por mutagénesis, no le afecta la regulación sobre transgénicos. Imagen de Neil Palmer (CIAT) / Flickr / CC.

¿Maíz transgénico? No: Quality Protein Maize (QPM), un mutante inducido «biofortificado». Al ser una variedad creada por mutagénesis, no le afecta la regulación sobre transgénicos. Imagen de Neil Palmer (CIAT) / Flickr / CC.

Esta última conclusión merece un comentario. Desde que existen la agricultura, la ganadería y la costumbre de tener animales de compañía, el ser humano ha estado seleccionando los mutantes que surgían espontáneamente para criar variedades o razas con los rasgos deseados, desde el arroz a los perros.

Desde el segundo tercio del siglo XX, antes de la existencia de las tecnologías genéticas, se ha empleado el procedimiento de forzar la aparición de estas mutaciones mediante estímulos químicos y radiológicos, es decir, mutágenos. La base de datos conjunta de la Organización de las Naciones Unidas para la Alimentación y la Agricultura (FAO) y de la Agencia Internacional de la Energía Atómica (IAEA) registra más de 3.200 de estas variedades mutantes de 214 especies de plantas, utilizadas en más de 60 países.

Sin embargo, y frente a la regulación aplicada a los organismos modificados por procedimientos de ingeniería genética, estos mutantes espontáneos o inducidos escapan al control legal. De hecho, en muchos países pueden venderse como «orgánicos», ya que esta calificación solo depende del método de cultivo y no del origen de las variedades, cuyo carácter mutante a veces se remonta a miles de años atrás (por ejemplo, nuestro trigo es genéticamente diferente del silvestre desde el inicio de la agricultura, hace al menos 8.000 años).

Y curiosamente, mientras que los cultivos GM están perfectamente caracterizados desde el punto de vista genético, los mutantes pueden comercializarse sin que se tenga la menor idea sobre cuáles son sus mutaciones, o si estas pueden ser perjudiciales para la salud o el medio ambiente. Dice el informe: «Algunas tecnologías emergentes de ingeniería genética podrán crear variedades de cultivos indistinguibles de las desarrolladas por métodos convencionales, mientras que otras tecnologías, como la mutágenesis, que no están cubiertas por las leyes actuales, podrían crear nuevas variedades de cultivos con cambios sustanciales en los fenotipos de las plantas».

Es por esto que el informe de las Academias Nacionales habla de esa distinción borrada, y por ello recomienda que «las nuevas variedades –ya sean obtenidas por ingeniería genética o de cultivo convencional– sean sometidas a ensayos de seguridad en caso de que tengan características nuevas, pretendidas o no, que puedan causar daños». El informe destaca que las nuevas técnicas -ómicas (genómicas, fenómicas, proteómicas…) serán clave en el futuro para conocer con detalle la ficha completa de toda variedad de cultivo, sea cual sea su origen.

Pero por otro lado, el informe también concluye lo siguiente:

«Las pruebas disponibles indican que la soja, el algodón y el maíz GM generalmente han tenido resultados económicos favorables para los productores que han adoptado estos cultivos, pero los resultados han sido heterogéneos dependiendo de la abundancia de plagas, prácticas agrícolas e infraestructuras de cultivo.»

«Los cultivos GM han beneficiado a muchos granjeros a todas las escalas, pero la ingeniería genética por sí sola no puede afrontar la amplia variedad de desafíos complejos a los que se enfrentan los granjeros, sobre todo los pequeños.»

En conclusión, los expertos destacan que los cultivos GM tampoco han sido la panacea esperada: no han aumentado drásticamente la producción como se prometía y, aunque para algunos granjeros han sido beneficiosos, a otros no les ha merecido la pena la inversión. Por supuesto, para algunas compañías han sido un negocio muy rentable.

¿Un negocio fallido? ¿Una promesa incumplida? ¿Un timo? Aún es pronto para decidirlo: «La biología molecular ha avanzado sustancialmente desde la introducción de los cultivos GM hace dos décadas», dice el informe. Entre estos avances está la tecnología de edición genómica CRISPR, que permite una manipulación del ADN mucho más precisa y eficaz que las tecnologías anteriores. «Están en marcha las investigaciones para aumentar el rendimiento potencial y la eficiencia en el uso de los nutrientes, pero es demasiado pronto para predecir su éxito», apuntan los autores. Y aún mucho más allá, todavía ni asomando por el horizonte, está la biología sintética.

Como resumen de todo lo anterior, y al menos en lo que respecta al panorama dibujado por el informe y a las previsiones que se derivan de él, hay una conclusión que probablemente parecerá tan risiblemente evidente para algunos como increíblemente insólita para otros: el futuro de la agricultura pasa inevitablemente por más tecnología, y no por menos.

Vídeo en streaming a través de la carne

Tal vez recuerden una película de los años 60 titulada Viaje alucinante (Fantastic Voyage), en la que un submarino y su tripulación científica eran reducidos a un tamaño microscópico para introducirse por vía intravenosa (si no recuerdo mal) en el organismo de un tipo y salvarle la vida. Y quienes no la recuerden tal vez tengan pronto la ocasión de conocerla, si se confirma un posible remake que al parecer dirigirá Guillermo del Toro. Esto sin contar la inevitable recreación que hicieron Los Simpson.

Imagen de Twentieth Century Fox.

Imagen de Twentieth Century Fox.

No vengo a contarles que la premisa de la película está más cerca de hacerse realidad, pero sí una parte de ella: la posibilidad de introducir un sumergible –no tripulado, claro– en el cuerpo de alguien, dirigirlo a distancia desde el exterior y que transmita en directo vídeo en streaming de alta definición mostrándonos lo que ocurre por nuestros entresijos.

Esto ya no resulta tan descabellado. En los últimos años se viene hablando de las píldoras digitales, microchips que pueden tragarse y monitorizar los parámetros deseados dentro del organismo antes de ser expulsados por la puerta de salida habitual. Por otra parte, ciertos aparatos implantados en el interior del organismo ya pueden ser controlados desde el exterior a través de sistemas clásicos de ondas de radio. El uso del cuerpo humano como medio transmisor de ondas es un activo campo de investigación.

El problema con los sistemas actuales es que los seres vivos no somos muy buenos transmitiendo ondas de radio. Las frecuencias utilizables para aparatos médicos ocupan una estrecha franja y el ancho de banda es pequeño, por lo que las máximas velocidades de transmisión alcanzables están en torno a las 50 k o kbps (kilobits por segundo); una conexión ADSL normal, pongamos de 10 megas, es 200 veces más rápida.

Sistema experimental de transmisión de datos a través de lomo de cerdo. Imagen de Singer et al. / Universidad de Illinois.

Sistema experimental de transmisión de datos a través de lomo de cerdo. Imagen de Singer et al. / Universidad de Illinois.

Un equipo de investigadores de la Facultad de Ingeniería de la Universidad de Illinois está ensayando una solución infinitamente más conveniente: ultrasonidos. Al menos desde hace un siglo, con la invención del sónar, los humanos hemos aprovechado que el sonido se transmite mucho mejor bajo el mar que las ondas de radio. ¿Y qué es nuestro cuerpo sino agua salada con algunos ingredientes añadidos?

Con este enfoque, los investigadores ensayaron la transmisión de datos por ultrasonido a través de tejidos animales, los cuales obtuvieron de la carnicería local: un lomo de cerdo y un hígado de vaca. En su estudio, disponible en la web de prepublicaciones arXiv.org, los autores cuentan que lograron velocidades de entre 20 y 30 megas (Mbps), «demostrando la posibilidad de transmisión de datos a velocidad de vídeo en tiempo real a través del tejido», escriben.

Según Andrew Singer, coautor del estudio, «podemos imaginar un dispositivo que pueda tragarse para tomar imágenes del tubo digestivo, con capacidad de transmitir vídeo HD en directo por streaming a una pantalla externa, y de modo que el dispositivo pueda controlarse a distancia externamente por el médico». Aunque no es la primera vez que se ensaya la transmisión de datos a través de tejidos animales, nunca antes se había hecho a tal velocidad. Dice Singer: «Esta velocidad de transmisión es suficiente, por ejemplo, para ver Netflix». La pega es que aún habrá que estudiar los posibles efectos de la transmisión de ultrasonidos a través de tejidos vivos.

Ada Lovelace no fue la primera programadora, pero vio el futuro de las computadoras

No crean todo lo que lean por ahí. Internet es un medio fantástico de difusión de información, pero también puede serlo de desinformación. Y cuando una versión de una historia cuaja y se copia y recopia en miles de webs, es muy difícil llegar a derribarla, por muy equivocada que esté.

Detalle del retrato de Ada Lovelace pintado por Margaret Carpenter en 1836. Imagen de Wikipedia.

Detalle del retrato de Ada Lovelace pintado por Margaret Carpenter en 1836. Imagen de Wikipedia.

Hace unos días el historiador de la computación Doron Swade me escribía en un correo: «Si puedes corregir las innumerables equivocaciones que abundan sobre la reputación de Lovelace, habrás hecho más que ningún otro periodista con el que haya tenido el placer de relacionarme». ¿A qué se refería Swade? A esto: «Si como periodista levantas alguna duda sobre la proclama de la primera programadora, no digamos si la rebates, habrás hecho más que nadie que conozco con proyección pública para realinear las pruebas históricas con la percepción pública, y te deseo suerte en ello».

Ada Lovelace, de cuyo nacimiento hoy se cumplen 200 años, fue la única hija legítima de Lord Byron, un tipo tan agraciado por su talento poético como desgraciado en su vida amorosa. Es curiosa la riqueza del castellano cuando una palabra puede significar algo y su contrario. En el caso de «desgraciado», el diccionario recoge dos significados contrapuestos: el que padece desgracia, o el que la provoca a otros. Byron repartió mucha desgracia amorosa y, con ella, dejó por ahí un número de hijos que ni siquiera se conoce con exactitud. Solo una vez se casó, con Annabella Milbanke, y de este matrimonio nació una niña, Ada. Byron y Annabella rompieron cuando la niña solo tenía un mes.

Ada se crió con sus abuelos y con su, al parecer, poco afectuosa madre, que se preocupó de que aprendiera matemáticas y lógica para evitar que sufriera los delirios de su padre. Desde pequeña, la futura condesa de Lovelace destacó por su inteligencia y por su interés en los números, que la llevarían a relacionarse con Charles Babbage, el creador de las primeras calculadoras mecánicas; un trabajo por el que Babbage suele recibir el título de padre de la computación.

Ada se encargó de traducir al inglés un artículo que resumía una conferencia pronunciada por Babbage en Italia. Al final del texto, añadió unas extensas notas que incluían un algoritmo que permitiría a la máquina calcular los números de Bernoulli, una serie de fracciones con diversas aplicaciones matemáticas. Y es este algoritmo el que ha servido para promocionar mundialmente a Ada Lovelace como la autora del primer programa informático de la historia, un título que suele acompañar a su nombre en innumerables reseñas biográficas.

No se trata de que aquel algoritmo no pueda definirse exactamente como un programa informático. Es evidente que aún quedaba un siglo por delante hasta la existencia de verdaderas computadoras que trabajaran con programas tal como hoy los entendemos. Pero aquel algoritmo era una descripción paso a paso de los cálculos que realizaría la máquina, por lo cual los expertos reconocen en aquel trabajo el primer precursor de la programación.

El problema es que, según parece, no fue el trabajo de Lovelace, sino de Babbage. Durante años, los expertos han discutido hasta qué punto aquellas notas escritas por Ada fueron realmente producto de su mente o fueron más o menos dirigidas por Babbage. Si abren la página de la Wikipedia sobre Ada Lovelace en inglés (la entrada en castellano no recoge la controversia), comprobarán que existen versiones contradictorias. Pero en general, los historiadores de la computación favorecían la versión de que Babbage era quien mejor conocía la máquina que él mismo había ideado, y que los primeros programas fueron obra suya. En palabras de Swade: «La idea de que Babbage inventó una computadora y no sabía que podía programarse es de risa».

A esto se añaden los nuevos datos aportados ahora por Swade en el simposio celebrado esta semana en Oxford con motivo del bicentenario de Ada Lovelace. Según me contaba por email antes del simposio, tiene las pruebas documentales de 24 programas creados por Babbage seis o siete años antes de las famosas notas de Lovelace, y ha rastreado en ellos la procedencia original de cada uno de los rasgos que aparecen en el programa de los números de Bernoulli del escrito de Ada; lo que parece zanjar definitivamente el debate. He explicado los detalles en este reportaje.

Queda una cuestión por resolver, y es que según parece los programas no están escritos de puño y letra por Babbage. Sin embargo, Swade apunta que el matemático solía emplear escribientes y dibujantes, y que de hecho gran parte del material por el que es reconocido tampoco corresponde a su escritura. La posibilidad de que estos primeros programas fueran escritos por Lovelace queda descartada, según Swade, por otras pruebas indirectas: en primer lugar, de ser así habría correspondencia al respecto entre ambos, que no existe. Y tal vez más importante, de las cartas que Babbage y Lovelace intercambiaron más tarde, en la época de las notas, se deduce que por entonces Ada solo estaba comenzando a comprender los fundamentos de la máquina, lo que no cuadraría con el hecho de que hubiera escrito programas para ella varios años antes.

Pese a todo lo anterior, Swade quiere dejar claro que no pretende de ningún modo desmontar la figura de Ada Lovelace, sino solo el mito: «El propósito de mi derribo de la ficción de la primera programadora no es desacreditar a Lovelace; ella nunca hizo tal proclama. El derribo se dirige hacia aquellos que han confeccionado y perpetuado la ficción».

De hecho, Swade lleva años defendiendo que la verdadera y valiosa aportación de Ada Lovelace, y aquella por la que debería ser celebrada y recordada, fue su capacidad de ver más allá: «Babbage no vio en ningún momento que las computadoras pudieran operar fuera de las matemáticas», dice el historiador, mientras que «fue Lovelace, no Babbage ni sus contemporáneos, quien vio que los números podían representar entidades diferentes de las cantidades: notas de música, letras del abecedario o más cosas, y que el potencial de las computadoras residía en el poder de representación de los símbolos, en su capacidad de manipular representaciones simbólicas del mundo de acuerdo a unas reglas».

Ada Lovelace continuará siendo lo que siempre ha sido, pionera de la computación, una figura brillante y adelantada a su época que combinó maravillosamente su vocación científica con la herencia poética que le venía de familia; un espléndido ejemplo para las Ciencias Mixtas. Mañana contaré algún aspecto más de su vida, igualmente insólito.

¿Puede la ciencia arreglar el problema del tráfico?

Es maravilloso que se favorezca el uso del transporte público o de otros medios alternativos para desplazarse. Cualquiera que defendiera lo contrario, es decir, el derecho a que cada uno pueda moverse libremente como le venga en su real gana, cuando y adonde le parezca mientras lo haga en un medio de transporte legal, estaría incurriendo en una grave incorrección política. Y por supuesto, es fantástico que la publicidad de la Dirección General de Tráfico anime a los usuarios a prescindir del coche para así aligerar el trabajo de la Dirección General de Tráfico. De hecho, no entiendo cómo es que Aena no emite anuncios animando a los usuarios a viajar en tren para evitar la congestión en los aeropuertos y los retrasos en los vuelos.

Atasco de tráfico en China. Imagen de YouTube.

Atasco de tráfico en China. Imagen de YouTube.

Ironías aparte, me gustaría creer que los responsables de nuestras infraestructuras, a la hora de planificar la construcción de nuevas carreteras, tienen en cuenta toda la ciencia aplicada al tráfico que se ha desarrollado en el último medio siglo, desde que algunos investigadores comenzaron a escribir ecuaciones para comprender cómo funciona la circulación de vehículos.

En Madrid, donde en las últimas semanas se ha hablado de varios colapsos cuando han coincidido lluvia, hora punta y lunes, tradicionalmente se ha afrontado este problema construyendo nuevas carreteras y anillos de circunvalación. Pero hasta un profano en materia de tráfico como yo sabe que el hecho de abrir más carreteras no alivia el tráfico a largo plazo. Este efecto tiene incluso un nombre: se llama Paradoja de Braess.

La gran tentación para los gobernantes es tomar la salida más fácil: restringir o prohibir. Pero este tipo de medidas son socialmente injustas: aplicar una tasa, como en Londres, beneficia a quienes pueden costearla; y la solución de las matrículas alternas, como en Roma, también favorece a aquellos que pueden permitirse tener dos coches en el garaje, uno para los días de placa par y el otro para los de impar.

¿Qué hacemos entonces? La teoría del tráfico es un campo que se ha beneficiado mucho del progreso de los modelos informáticos de simulación, que consideran la circulación de los vehículos como el movimiento de un fluido de características peculiares. Muy peculiares; este vídeo de un experimento realizado por investigadores japoneses muestra eso que todos hemos sufrido, los parones de tráfico sin motivo aparente, causados solo por el hecho de que varios vehículos circulan a corta distancia por un mismo carril sin nada que bloquee o ralentice el tráfico, salvo los propios coches. Muy propiamente, lo llaman atasco fantasma.

Otra fuente a la que los científicos están recurriendo para comprender cómo funciona el tráfico, y cómo podría funcionar mejor, es la naturaleza. Algunos investigadores llevan años analizando el movimiento de las hormigas. Estos insectos no solo circulan a cientos por rutas estrechas como nuestras carreteras sin sufrir embotellamientos, sino que cuantas más se echan a la ruta, más rápido se mueven, como demostró hace unos meses un equipo de investigadores alemanes. En España hay también algunos investigadores que estudian los modelos de las hormigas, la oruga procesionaria o las migraciones de aves, como recogía un artículo de la revista de la DGT.

Los propios expertos reconocen que los modelos aún distan mucho de ser perfectos. Y naturalmente, las hormigas pueden pasar unas por encima de otras, cosa que a nosotros no nos es posible, al menos con los coches actuales. Pero según los investigadores, parte del éxito de estas hormigueantes autopistas se basa en la ausencia del factor típicamente humano en el que reside gran parte de la culpa de nuestros atascos: el adelantamiento por chulería, el zigzag del impaciente, el frenazo para mirar el móvil, el frenazo para mirar el accidente, el frenazo para mirar a la conductora del coche de al lado, el frenazo para mirar al conductor del coche de al lado… O nada de esto, como demuestra el vídeo del atasco fantasma. Simplemente, somos humanos.

Así que, mientras esperamos ese día en el que –según nos vaticinan– tendremos coches eléctricos a precios asequibles que se conducirán solos y se organizarán entre ellos para ordenarse mecánicamente como un perfecto Tetris fluido sin tapones ni frenazos, algo más habrá que hacer. No parece fácil. Pero ¿alguien ha preguntado a los científicos?

Un ordenador predice que el ébola podría tratarse con… ibuprofeno

Puede parecer una broma, pero no lo es. El ibuprofeno, ese familiar antiinflamatorio, analgésico y antipirético que coge polvo en el fondo de armario de cualquier botiquín, ese que damos a nuestros niños desde la cuna (Dalsy), y ese sobre el que la Agencia Europea del Medicamento alertaba el mes pasado de que a altas dosis puede provocar problemas cardiovasculares, podría servir como prevención y tratamiento del ébola.

Modelo en 3D de un filovirus, la familia del ébola. Imagen de Nilses / Wikipedia.

Modelo en 3D de un filovirus, la familia del ébola. Imagen de Nilses / Wikipedia.

En realidad no se trata de ninguna propuesta estrambótica, sino del resultado de una práctica muy común en la investigación biomédica. El desarrollo de nuevos fármacos es un proceso largo, costoso e incierto. Cuando se trata de enfermedades de difícil tratamiento o de emergencias de salud pública, a menudo este horizonte es demasiado lejano. Actualmente se está administrando en Sierra Leona el TKM-Ebola, un sofisticado medicamento que ha demostrado resultados espectaculares en los ensayos preclínicos con monos. Pero hasta que este fármaco u otros confirmen su eficacia de acuerdo a los protocolos y superen todos los filtros necesarios, es posible tirar de otra solución más rápida y barata. La idea es: ya tenemos infinidad de medicamentos; probemos si alguno sirve.

Con este fin, los investigadores emplean un procedimiento llamado in silico. Si in vivo es en humanos o animales e in vitro es en placa, in silico no es ni más ni menos que en las tripas de un ordenador. Es decir, una simulación. Se trata de introducir una batería de fármacos en un modelo y comprobar si el ordenador predice interacciones entre algún medicamento y el patógeno de interés que pudieran ser útiles en la práctica. En realidad, el sistema informático mejora y amplía algo que antes los bioquímicos hacían in cerebro, predecir interacciones basándose en la estructura de las moléculas.

Una de las aplicaciones de los estudios in silico es el screening virtual de posibles candidatos terapéuticos. Frente al rastreo (screening) «real» de miles de moléculas posibles, que requiere el uso de materiales costosos, mucho tiempo y laboratorios robotizados, el screening virtual in silico ofrece una opción mucho más barata y rápida para seleccionar moléculas de diseño o fármacos ya conocidos que puedan ejercer efectos terapéuticos contra otras enfermedades ajenas a sus usos habituales. Y funciona: algunos posibles agentes antitumorales se han identificado de esta manera, y se han publicado tasas de éxito del 50%; es decir, que la mitad de las interacciones provechosas pronosticadas por el modelo se confirmaban después en los experimentos reales.

Como ejemplo, el Programa de Terapias Experimentales del Centro Nacional de Investigaciones Oncológicas (CNIO) tiene una librería (término mal traducido del inglés library, pero de uso habitual) de unos 50.000 compuestos. En un estudio del que hoy hablan algunos medios, el equipo de María Blasco ha identificado dos moléculas que muestran actividad antitumoral bloqueando una proteína implicada en la inmortalidad de las células cancerosas. Para encontrar estos dos compuestos, en este caso los investigadores hicieron un screening «real», conocido como high-throughput screening, con 640 moléculas representativas de las 50.000 de la librería. Pero examinar 640 compuestos ya es toda una proeza cuando se trata de rastreos experimentales que requieren trabajo de laboratorio; en cambio, el procedimiento in silico permite ensayar miles de moléculas virtualmente sin tocar una pipeta.

Por supuesto que toda posible actividad identificada in silico debe después confirmarse in vitro e in vivo si se trata de que una molécula candidata se convierta en un medicamento. Pero como primer paso, los experimentos in silico ofrecen una manera conveniente de restringir el foco a unos cuantos compuestos de interés seleccionados de librerías muy amplias.

En el caso del ébola, antes del estudio in silico que vengo a contar se han hecho screenings in vitro, con células en cultivo, e in vivo, con ratones. De esta manera se entresacaron más de 100 moléculas activas contra el virus del Ébola; entre ellas la cloroquina, el más clásico de los tratamientos modernos contra la malaria. La acción de la cloroquina ha sido después confirmada por otros estudios.

Al mismo tiempo, un equipo de investigadores de Europa, EE. UU. y Canadá, dirigido por Veljko Veljkovic, del Instituto de Ciencias Nucleares Vinča de la Universidad de Belgrado (Serbia), ha emprendido un amplio screening virtual in silico con 6.438 compuestos del DrugBank, una base de datos de fármacos perteneciente a la Universidad de Alberta (Canadá). A partir de esta librería, los científicos seleccionaron 267 medicamentos aprobados y otros 382 experimentales como posibles tratamientos contra el ébola. Entre ellos se encuentran 15 fármacos contra la malaria y 32 antibióticos.

Es importante aclarar algo obvio: el ébola es un virus. Esto implica que ni los medicamentos contra los parásitos como el de la malaria, ni los antibióticos, que solo actúan contra las bacterias, son en principio adecuados para tratar una enfermedad vírica. Pero como ya he explicado, se trata precisamente de descubrir actividades que no podrían sospecharse de acuerdo a la naturaleza de los fármacos. El hecho de que un compuesto sea capaz de inhibir la infección por un virus depende en muchos casos de que pueda unirse a una molécula que el patógeno emplea para entrar en la célula, y por tanto bloquearla. Estas interacciones entre moléculas son como los encajes entre las piezas de un Lego en el que hay infinidad de conexiones de formas distintas. Y a veces, pueden conectarse dos piezas que en principio no estaban pensadas para unirse entre sí.

Ahora, en un nuevo estudio, el equipo de Veljkovic se ha centrado en esos 267+382 compuestos identificados anteriormente. Y de todos ellos, los modelos de simulación empleados han identificado el mejor candidato: el viejo y buen ibuprofeno. «Barato, ampliamente accesible y mínimamente tóxico», como lo definen los autores. «Tomados en conjunto, estos datos indican que el ibuprofeno podría usarse con seguridad en dosis sin prescripción en pacientes de ébola, con posibles efectos antivirales, así como para aliviar los síntomas», escriben los investigadores. El modelo predice para el ibuprofeno una actividad contra el virus en el mismo orden que la cloroquina, ya verificada con el virus real, por lo que Veljkovic y sus colaboradores recomiendan ensayos in vitro e in vivo.

Gracias a sus modelos, los investigadores han podido concretar el posible mecanismo de acción del ibuprofeno contra el ébola. Según explican en su estudio, publicado en la revista digital F1000Research y aún pendiente de la obligatoria revisión, el ibuprofeno podría unirse a una proteína del virus llamada GP1, que el patógeno emplea normalmente para anclarse a un tipo de moléculas llamadas EMILINs presentes en el andamiaje de los vasos sanguíneos. Según el modelo, el ibuprofeno bloquearía la GP1 del virus, impidiendo así la infección.