Archivo de la categoría ‘Robótica’

Un robot viola la primera ley de Asimov

Así dicho, podría sonar a pompa y artificio. De un vistazo superficial, podría parecer que el hecho de que una máquina haya causado daños, por suerte leves, a un niño, no pasaría más allá de cualquier otro accidente de un humano con un aparato; como, digamos, el que se pilla la corbata con la trituradora de documentos.

Pero cuando la máquina es un sofisticado robot de seguridad dotado de casi 30 sensores ad hoc y programado para vigilar a los malos y proteger a los buenos, entonces ahí lo tenemos, y no puede ser más literalmente cierto: «un robot no hará daño o, por inacción, permitirá que un ser humano sufra daño», Isaac Asimov dixit en la primera de sus famosísimas Tres Leyes de la Robótica.

Los hechos: el Centro Comercial de Stanford, en Palo Alto (California), cuenta en su plantilla con los K5 de Knightscope, una especie de Robocops con ruedas –aunque su aspecto recuerda más a R2D2– de metro y medio de alto y unos 130 kilos de peso que patrullan por el centro para servir de apoyo a los guardias de seguridad humanos. Cuando el K5 detecta alguna anomalía, como un ruido inusual o un cambio brusco de temperatura, o cuando detecta a algún criminal fichado… no, no dispara; se limita a alertar a sus jefes basados en el carbono.

El K5 de Knightscope. Imagen de Knightscope.

El K5 de Knightscope. Imagen de Knightscope.

Dado que el centro comercial está situado en el Silicon Valley, nada más apropiado que un vigilante robótico. Pero dado que una de las virtudes del K5 es que sale más barato que un guardia de carne y hueso, a unos 6,25 dólares la hora, nada más apropiado para rescatar la vieja polémica que se remonta a los tiempos de la Revolución Industrial.

El caso es que el pasado 7 de julio, una familia se encontraba visitando el centro comercial cuando el pequeño de 16 meses Harwin Cheng resultó arrollado por un K5. El robot pasó por encima de su pie, causándole un golpe de morros contra el suelo, arañazos en la pierna y una inflamación, además de un susto de muerte.

Como era de esperar, hay una diferencia sustancial entre la versión de la familia y la de Knightscope. La madre del niño, Tiffany, dijo a ABC7 News: “El robot golpeó a mi hijo en la cabeza y él cayó de cara hacia el suelo, y el robot no se detuvo y siguió avanzando”. Por su parte, según The Verge, Knightscope declaró en un comunicado que “el niño abandonó la vecindad de sus guardianes y comenzó a correr hacia la máquina. La máquina giró a la izquierda para evitar al niño, pero el niño corrió hacia atrás directamente hacia el frente de la máquina, momento en que la máquina se detuvo y el niño cayó al suelo”.

Naturalmente, ante tal discrepancia caben pocas dudas sobre qué versión creer, aunque solo sea porque la de Knightscope no explica claramente las lesiones del niño; la empresa asegura que los sensores del robot no detectaron vibración, como debía haber ocurrido al pasar sobre un pie. Incluso el Roomba de iRobot, esa aspiradora casera que se convirtió en la primera máquina de uso doméstico admitida en el Salón de la Fama de los Robots de la Universidad Carnegie Mellon, sabe detenerse cuando encuentra un obstáculo.

Por otra parte, quienes tenemos hijos también sabemos que, cuando se empeñan, no existe robot en la galaxia capaz de esquivarlos. Sea como fuere, la compañía ha presentado sus disculpas a la familia y la ha invitado a conocer sus instalaciones, aunque no está claro si a los Cheng les quedarán ganas. Por el momento, los K5 del centro comercial han tenido que entregar sus placas y han quedado suspendidos de empleo y sueldo.

Aunque afortunadamente el suceso no ha pasado de anécdota, ilustra una situación que sin duda se repetirá con mayor frecuencia a medida que nuestra interacción con los robots se vaya multiplicando. Y lo peor de todo es que no siempre los casos que puedan presentarse estarán tan fácilmente cubiertos por las tres sencillas reglas de Asimov. Algo que escapa a este código básico y que últimamente ha sido objeto de comentarios es el dilema moral, especialmente en el caso de los coches robotizados autónomos que Tesla y otras compañías quieren popularizar en los próximos años.

El pasado mayo, un coche autónomo Tesla causó la muerte de su único ocupante cuando no pudo esquivar un camión que se interpuso de repente. Al parecer, el vehículo viajaba en modo de piloto automático mientras su conductor veía una película de Harry Potter, y los sensores del coche no distinguieron el camión blanco contra el cielo luminoso. La semana pasada se produjo otro accidente de un Tesla, esta vez sin daños. Aquí no hay debate posible: fue un error de la tecnología que revela sus imperfecciones.

Pero imaginemos esta otra situación: un coche autónomo circula con ocupantes en su interior, cuando de repente se encuentra inesperadamente con un obstáculo en el camino sin tiempo para frenar. Tiene dos opciones: estrellarse, poniendo en riesgo las vidas de sus pasajeros, o eludir el obstáculo y arrollar a un grupo de peatones. ¿Cuál es la decisión correcta? ¿Depende de si hay más personas dentro del coche o en la acera? ¿De si hay niños? ¿Podrán los afectados o sus familiares demandar al fabricante del coche? ¿Querría algún fabricante arriesgarse a perder una demanda con indemnizaciones millonarias?

El pasado junio, un estudio publicado en Science reunía una serie de encuestas que planteaban este dilema. La mayoría de los encuestados pensaban que el coche debería optar por sacrificar a sus ocupantes, aunque opinaban que esto no debería regularse por ley. Y como consecuencia de todo ello, se mostraban reacios a montar en coches que podrían tomar la decisión de liquidarlos para no dañar a otros.

La realidad puede ser más complicada que la ficción. Y si algo queda claro, es que tres leyes no bastan.

¿Y si los aviones se pilotaran solos?

La semana pasada el visionario, tecnólogo y empresario Elon Musk, responsable de PayPal, SpaceX y Tesla Motors, y a quien algunos medios suelen definir como la versión real de Tony Stark, provocó cierto revuelo en internet cuando dijo: «En un futuro distante, los legisladores podrían prohibir los coches conducidos porque son demasiado peligrosos». Musk pronunció esta frase en la Conferencia de Tecnología GPU, en San José (California), ante una audiencia de 4.000 personas durante un mano a mano con Jen-Hsun Huang, CEO de la compañía tecnológica NVIDIA, a propósito de la presentación de un ordenador de conducción autónoma desarrollado por esta empresa.

Ilustración del F 015 Luxury in Motion, el Mercedes autoconducido. Imagen de Mercedes-Benz.

Ilustración del F 015 Luxury in Motion, el Mercedes autoconducido. Imagen de Mercedes-Benz.

Musk no vaticinó que las calles y carreteras se llenarán de coches autoconducidos de la noche a la mañana; aclaró que será un cambio lento y que, si los vehículos autónomos estuvieran disponibles mañana mismo, la transición llevaría 20 años. También pronosticó que los legisladores se opondrán frontalmente a autorizar la circulación de estos coches, hasta que varios años de pruebas acumuladas les convenzan de su seguridad. Pero se mostró confiado en que esta evolución será inevitable. «Creo que llegará a ser algo normal. Antes había ascensoristas, y luego inventamos circuitería para que el ascensor supiera llegar a tu piso. Así serán los coches», sugirió. A continuación se zambulló en su Twitter para precisar que «Tesla está decididamente a favor de que a la gente se le deje conducir sus coches, y siempre lo estará», para luego añadir: «Sin embargo, cuando los coches autoconducidos sean más seguros que los conducidos por humanos, el público podría ilegalizar estos últimos. Espero que no».

Lo cierto es que muchas compañías con tradición de saber en qué invierten su dinero, como Google, Mercedes-Benz o la propia Tesla, entre otras, están desarrollando este tipo de tecnologías de conducción autónoma. Aunque su comercialización se vea aún muy lejana, si hemos de juzgar por la tendencia, parece que los expertos creen viable que algún día las carreteras se llenarán de coches conduciendo solos, comunicándose y cooperando entre ellos sin intervención humana. Según Musk, lo más complicado será lograr que estos sistemas funcionen en la franja entre los 20 y los 80 kilómetros por hora, en entornos urbanos y suburbanos con peatones, ciclistas, mucho tráfico cruzado y demás interferencias. En cambio, el tecnólogo cree que será más sencillo conseguirlo en un escenario de carreteras y autopistas, por encima de los 80 km/h.

Un tren automático de la línea 9 del metro de Barcelona. Imagen de Javierito92 / Wikipedia.

Un tren automático de la línea 9 del metro de Barcelona. Imagen de Javierito92 / Wikipedia.

Los sistemas de conducción automática llevan ya varios años introduciéndose con éxito en las redes de metro con distintos grados de autonomía, desde aquellos casos en los que el tren lleva un conductor que se encarga de abrir y cerrar las puertas y de supervisar el funcionamiento, hasta los casos en los que se prescinde por completo de la presencia humana, como en la lanzadera de la terminal T4 del aeropuerto de Barajas. Barcelona y Madrid se unen a la larga lista de ciudades del mundo que incorporan trenes automáticos, en la mayor parte de los casos aún con presencia de conductor. Pero parece evidente que el mayor obstáculo para que los trenes circulen sin maquinista ya no es tecnológico, sino psicológico: tal vez aún sea tranquilizador comprobar que al volante hay un ser humano. Sin contar con que habría muchos puestos de trabajo en peligro. Pero ¿qué habría ocurrido si el Alvia de la curva de Angrois hubiera circulado de forma autónoma?

Es evidente que el salto ahora es hacia arriba. Tirando de la última frase, el error humano está también detrás de la mayoría de los desastres aéreos, según datos de la web planecrashinfo.com. Aunque los expertos afirman que un avión no suele caer por una sola causa, sino más bien por una desafortunada concatenación, desde la década de 1950 el 53% de los accidentes aéreos se han debido a errores del piloto como razón primaria, ya sea única o unida a otras circunstancias meteorológicas o mecánicas que podrían haberse resuelto con un pilotaje más diestro. Por el contrario, los fallos mecánicos irresolubles fueron responsables del 20% de los accidentes. El resto se divide entre otras causas, como sabotajes u otros errores humanos, por ejemplo de mantenimiento o de control aéreo.

Merece la pena insistir: más de la mitad de todos los accidentes aéreos de la historia desde 1950 no se habrían producido sin el error humano. En la memoria quedan tragedias como la del mayor desastre en número de víctimas (583), el del aeropuerto tinerfeño de Los Rodeos en 1977, cuando dos Boeing 747 colisionaron en pista debido a un estúpido malentendido que llevó a un piloto a despegar cuando aún no tenía autorización. O el más reciente caso del vuelo de Spanair en 2008, cuyos pilotos trataron de levantar el vuelo con una configuración errónea de las alas. O la casi incomprensible caída al mar del vuelo 447 de Air France en 2009, causada porque un inexperto copiloto malinterpretó el comportamiento de su avión y se empeñó repetidamente en hacer justo lo contrario de lo que debía. Por no hablar de los casos en los que ha sido el piloto quien ha estrellado deliberadamente la nave, ahora de triste actualidad y de insólita frecuencia, ya que se sospecha que el vuelo de Malaysia Airlines desaparecido hace un año pudo sufrir un destino similar.

Ahora, cabría preguntarse no solo si la idea de confiar nuestra seguridad a aviones autoguiados es posible, sino también si es deseable. Respecto a esto último, el concepto espeluznará a muchos, y sería de esperar que contara con la repulsa general. Respecto a si es viable, el titular es que depende de quién opine. Según el piloto y bloguero Patrick Smith, la idea de que actualmente los aviones vuelan solos está «ridículamente alejada de la realidad». «La prensa y los comentaristas repiten esta basura constantemente, y millones de personas llegan a creérselo», escribe Smith.

Otros, como Stephen Rice, psicólogo especializado en ingeniería y concretamente en el factor humano de la aviación, aseguran que «la tecnología ya está ahí; los aviones modernos podrían despegar, volar y aterrizar solos», según comentaba a la web BuzzFeed. En la misma línea, el director del programa de aviones no tripulados de la Universidad Estatal de Nuevo México, Doug Davis, señalaba a la BBC: «Creemos que los aviones no tripulados son la próxima gran transformación de la industria de la aviación». Y recientemente era nada menos que el director general de tecnología de Boeing, John Tracy, quien afirmaba: «Con respecto a los aviones comerciales, no tenemos ninguna duda de que podemos resolver el problema del vuelo autónomo».

El avión espacial Boeing X-37B en la base aérea de Vandenberg. Imagen de United States Air Force / Wikipedia.

El avión espacial Boeing X-37B en la base aérea de Vandenberg. Imagen de United States Air Force / Wikipedia.

El piloto automático ya ha cumplido los cien años. Los primeros sistemas rudimentarios se limitaban a mantener la altitud y el rumbo durante el vuelo de crucero. En 1930, la revista Popular Science Monthly informaba sobre un dispositivo que permitía «guiar un avión en su curso durante tres horas sin ayuda humana». Los sistemas actuales, concebidos para casos de condiciones meteorológicas extremas, permiten incluso llevar un avión a tierra sin intervención directa de la tripulación, que puede limitarse a supervisar el proceso. El ejército de EE. UU. cuenta con el Boeing X-37B, un pequeño transbordador espacial no tripulado, y el Northrop Grumman X-47B, un avión de combate semiautónomo. Por supuesto, el «semi» no es un compromiso satisfactorio: ningún pasajero querría subir a un dron dirigido por control remoto; de haber un humano a los mandos, preferiríamos que compartiera nuestro destino, y no que abandonara los controles para irse a la sala de café cuando nosotros estamos a 30.000 pies de altura. Pero la británica BAE Systems ya ha probado su Jetstream autónomo por el espacio aéreo de Reino Unido con una tripulación humana que se limitaba a mirar.

Hoy todavía el piloto automático es como nuestros ordenadores personales; lo que el director del Instituto de Investigación en Inteligencia Artificial (IIIA) del CSIC, Ramón López de Mántaras, llama «sabios idiotas». En el vuelo 447 de Air France, el error del copiloto se produjo después de que el sistema automático se desconectara porque la congelación de las sondas externas le impedía conocer los parámetros de vuelo, por lo que dejó el control en manos de los tripulantes. En casos como este, el factor humano es imprescindible, aunque en aquel caso concreto no hiciera sino empeorar la situación. Pero los avances en inteligencia artificial también se están aplicando a la aviónica, y ya se experimenta con sistemas capaces de aprender de la experiencia.

Tal vez toda esta cuestión no tendría mayor recorrido si las aerolíneas pudieran garantizarnos que siempre volaremos bajo el mando de un piloto veterano, experto, curtido en mil adversidades, emocionalmente estable y psicológicamente férreo. Pero obviamente no es así, y nunca lo será. Y si en el futuro se nos llegara a presentar la elección entre confiar nuestra seguridad a una máquina (supongamos que casi) perfecta o asumir la posibilidad de viajar a merced del capricho de un sujeto perturbado, profesional-personal-emocionalmente inmaduro al que le acaba de dejar la novia, este que suscribe no tendría ninguna duda.

Inclinaos ante vuestro nuevo amo: Mario, el fontanero

Esta semana ha brotado en los medios una noticia sobre tecnología que se ha tratado con la misma ligereza que la presentación de un nuevo iPhone o una impresora 3D, y que, sin embargo, a mí me ha parecido de lo más espeluznante.

Antes de explicarlo, un poco de contexto: el día 11 de este mes, un grupo de científicos y tecnólogos publicaba una carta abierta en la web del Future of Life Institute (FLI), una organización sin ánimo de lucro dedicada a reflexionar e investigar sobre los retos que el futuro plantea a la humanidad, especialmente la inteligencia artificial (IA). En el documento, los expertos advierten de los riesgos de la IA si las investigaciones no se orientan específicamente a la consecución de objetivos beneficiosos, como la erradicación de la enfermedad y la pobreza.

Uno de los firmantes de la carta es el astrofísico Stephen Hawking, miembro de la junta directiva del FLI, quien ya en el pasado ha alertado de que el desarrollo de la IA sería el mayor hito de la historia de la especie humana, pero que «también podría ser el último» si no se implementan los mecanismos necesarios para que las máquinas inteligentes estén a nuestro servicio y no nos conviertan en sus esclavos. En la carta también ha estampado su firma Elon Musk, el magnate de la tecnología responsable de PayPal, SpaceX y Tesla Motors, así como una pléyade de científicos y tecnólogos de prestigiosas universidades y de compañías como Microsoft, Facebook y Google.

En mi última novela, Tulipanes de Marte (ATENCIÓN, SPOILER), introduzco un personaje que entra sin hacer ruido, pero que va cobrando peso hasta que su intervención se revela como decisiva en el desarrollo de la historia y en los destinos de sus protagonistas. Este personaje, Jacob, no es un ser humano, sino una máquina; la primera inteligencia artificial de la historia. Sus creadores lo diseñan con el fin de que sea capaz de buscar vida presente o pasada en Marte de forma completamente autónoma, una solución que sortea la exigencia de enviar exploradores humanos y que, de paso, mantiene a una computadora potencialmente peligrosa lejos de los asuntos de la Tierra. El cuerpo primario de Jacob es un vehículo posado en Marte; pero dado que no está compuesto de átomos, sino de bits, puede descargarse a otra máquina idéntica situada en la Tierra.

Al igual que el archifamoso HAL 9000, Jacob sufre un defecto de funcionamiento. Pero en lugar de convertirse en un asesino debido a un conflicto irresoluble en su programación, el fallo de Jacob es muy diferente. De hecho, en realidad ni siquiera podría denominarse avería, sino que es más bien una consecuencia lógica de su naturaleza. Jacob está construido aprovechando las ventajas de su soporte de grafeno, como la capacidad, rapidez y eficacia de computación, pero simulando todas las características de un cerebro humano. En nuestro procesamiento mental, las capacidades racionales, cognitivas y emocionales no pueden separarse. Aunque existen seres humanos que tienen afectada alguna de estas esferas, como la ausencia de empatía en los psicópatas, siempre consideramos estas situaciones como enfermedades o discapacidades. Jacob imita un cerebro humano sano, por lo que comienza a experimentar sentimientos que no comprende. Es emocionalmente inmaduro, así que trata de aprender cuáles son los patrones afectivos correctos a partir del comportamiento de los humanos. Y es así como descubre la afectividad, la soledad o la compasión, emociones que le impulsan a tomar decisiones bien intencionadas, pero equivocadas y con consecuencias inesperadamente graves.

En la novela, una modalidad de test de Turing inverso, que no se menciona explícitamente, revela que Jacob sabe diferenciar a las personas orgánicas de los que son como él. ¿Por qué entonces puede Jacob sentir compasión o afecto por los humanos, que no son sus iguales? Sencillamente, porque ha aprendido que así es como debe canalizar sus emociones. Es otra manera de aplicar las clásicas Leyes de la Robótica de Asimov, que incluyen la exigencia de no hacer daño a los seres humanos. Jacob lo lleva aún más allá, desarrollando verdaderos afectos.

Y hecha la introducción, ahora voy a la noticia. Un equipo de investigadores en computación de la Universidad de Tubinga (Alemania) se presentará a finales de este mes a la competición anual de vídeos organizada por la Asociación para el Avance de la Inteligencia Artificial (AAAI) con un clip titulado ¡Mario vive!, que utiliza el clásico personaje del fontanero bigotudo creado por Nintendo para modelizar el aprendizaje adaptativo que permite un comportamiento autónomo. El resultado es una secuencia en la que Mario avanza por su clásico paisaje de obstáculos a sortear –basado más bien en la versión antigua de la interfaz gráfica, no en las de los juegos actuales–, pero con una diferencia respecto a lo que estamos acostumbrados: no es un jugador humano quien lo maneja, ni sus movimientos han sido previamente programados. Es el propio Mario quien aprende y decide. Según narran los científicos en el vídeo, «este Mario ha adquirido conciencia de sí mismo y de su entorno, al menos hasta cierto grado».

En el vídeo, Mario recibe información, que emplea para aprender y tomar sus propias decisiones basadas en su estado de ánimo. Responde a preguntas, busca monedas para saciar su hambre, explora su entorno cuando siente curiosidad, saluda y dice sentirse «muy bien», excepto cuando sus amos humanos reducen su reservorio de felicidad. Entonces declara: «De alguna manera, me siento menos feliz. No tan bien».

Y ahora viene lo espeluznante. En el juego de Mario Bros, uno de los cometidos del fontanero es saltar sobre los goombas, una especie de champiñones enemigos. Cuando la investigadora le dice «Escucha: Goomba muere cuando saltas sobre Goomba», Mario responde con su tenebrosa voz sintetizada: «Si, lo comprendo. Si salto sobre Goomba, ciertamente muere». Cuando después la investigadora le informa de que Goomba es un enemigo, Mario no duda en buscarlo y saltar sobre él, sabiendo que de esta manera lo mata.

De acuerdo, es solo un juego; un simple modelo cognitivo básico. Aún estamos lejos de fabricar computadoras inteligentes con verdadera y plena conciencia de su propia existencia. Pero es evidente que este Mario no sería capaz de distinguir entre Goomba y cualquier otro ente, real o virtual, orgánico o electrónico, que le fuera presentado como un enemigo. Si fuera capaz de abandonar su pantalla y se le instruyera para ello, mataría a un ser humano con la misma indiferencia con la que salta sobre Goomba, del mismo modo que el monstruo de Frankenstein, sin malicia alguna, arrojaba a la niña al estanque en el clásico de Universal de 1931. Es un claro ejemplo de la encrucijada que exponen los redactores de la carta del FLI: en estos momentos en que la IA aún está en pañales, la investigación debe tomar las riendas para asegurarnos de que en el futuro no crearemos monstruos.

Dejo aquí el vídeo de la demostración. No se dejen engañar por la tonadilla inocente y machacona; Mario no sentiría ninguna piedad.

El viaje espacial de la misteriosa bacteria de las animadoras

"Saludos desde Vulcano". Una versión terrícola de Robonaut 2 posa junto al actor de 'Star Trek' George Takei. NASA/James Blair

«Saludos desde Vulcano». Una versión terrícola de Robonaut 2 posa junto al actor de ‘Star Trek’ George Takei. NASA/James Blair

Estaría mordiéndose las uñas, si las tuviera. Robonaut 2, también llamado R2 con inevitable guiño a una famosa saga, espera con mecánica paciencia a que el tráiler espacial Falcon 9 le entregue sus nuevas piernas. La empresa responsable del porte, SpaceX, la primera compañía privada que ya ha enviado naves a la Estación Espacial Internacional (ISS), ha anunciado que su misión CRS-3 prevista para el domingo 16 de marzo se pospone hasta el 30 por la necesidad de «tiempo adicional para cerrar cuestiones abiertas», según han informado la NASA y la propia SpaceX.

El primer astronauta robótico, que arribó a la ISS en febrero de 2011, hasta ahora carecía de piernas. Como esos autómatas de las antiguas ferias que aseguraban predecir el futuro, el robot solo disponía de cabeza, brazos y un torso fijado a un poste. Las nuevas piernas de R2 están dotadas de siete articulaciones y un pie con un gancho para fijarse a los raíles y puertos de la estación, además de una cámara. Las extremidades permitirán al robot moverse por los habitáculos de la ISS junto con sus compañeros humanos y sustituirlos en los arriesgados paseos espaciales. Será un pequeño paso para un androide, pero un gran salto para los robots.

Además de las piernas de R2, la cápsula Dragon del cohete Falcon 9 entregará a los ocupantes de la ISS una carga de suministros y experimentos. Entre estos últimos, investigadores del Instituto de Ciencias Agrícolas y de Alimentación de la Universidad de Florida (EE. UU.) han empaquetado un lote de plantas para estudiar cómo crecen las raíces en condiciones de microgravedad. Los científicos ya han comprobado anteriormente que la ausencia de gravedad provoca aberraciones en el crecimiento de las raíces, como una orientación más angulada respecto al tallo y la activación de genes que permiten a la planta ver la luz. «Estamos intrigados por los numerosos genes sensores de luz que se expresan específicamente en las raíces en órbita, y el experimento de SpaceX-3 explorará su papel en la orientación y la remodelación celular», dice la investigadora Anna-Lisa Paul en un comunicado de la Universidad. «Es probable que la luz juegue un papel más importante en el crecimiento de las raíces en microgravedad que en la Tierra», sugiere. Su colega Robert Ferl agrega: «Esto nos dice que la vida emplea señales especiales y potencialmente únicas para adaptarse a vivir fuera del planeta, lo que tiene tremendas implicaciones para la expansión de la existencia humana más allá, a otros mundos».

Bacteria misteriosa. Alex Alexiev/MERCCURI.

Bacteria misteriosa. Alex Alexiev/MERCCURI.

Junto a las plantas de Paul y Ferl, la misión CRS-3 transportará a la ISS otro curioso experimento. Se trata del Proyecto MERCCURI, siglas en inglés de Investigación de Ecología Microbiana Combinando Investigadores Ciudadanos y Universitarios en la ISS, una colaboración de la Universidad de California en Davis y de la iniciativa microBEnet, destinada a recoger microbios de los entornos habitados por el ser humano. El proyecto ha puesto en marcha en EE. UU. un esfuerzo de crowdsourcing para recoger, usando bastoncillos de algodón, poblaciones microbianas de los entornos más variados, como el teleprompter y la pantalla del espacio meteorológico de un canal de televisión, la Campana de la Libertad de Filadelfia, el tiranosaurio Sue del Museo Field de Chicago, y varios estadios de baloncesto y fútbol americano.

El propósito del experimento es cultivar los microorganismos en el espacio y comprobar cuáles y cómo crecen. Según David Coil, uno de los investigadores del proyecto, «el objetivo era organizar un proyecto de ciencia ciudadana en el espacio e involucrar al público». «Nuestra esperanza es que estudios como este sean de utilidad para futuras misiones espaciales tripuladas de larga duración, en las que personas y microbios compartirán un espacio sellado durante mucho tiempo».

Para facilitar la divulgación de su experimento, MERCCURI irá transmitiendo sus resultados en directo en las redes sociales bajo el hashtag #spacemicrobes. Además, los científicos han publicado en su web una colección de cromos mostrando las 48 especies microbianas, todas ellas inofensivas para los humanos, que se cultivarán en la ISS. La más curiosa, en opinión de Coil, es la que parece ser una nueva especie de la familia Sphingomonadaceae desconocida hasta ahora y que fue recogida del asiento de un estadio por las Science Cheerleaders, un movimiento de animadoras por la ciencia fundado por mujeres científicas en San Diego (California).

Las animadoras de la ciencia. Science Cheerleaders.

Las animadoras de la ciencia. Science Cheerleaders.