Entradas etiquetadas como ‘coches autónomos’

Un robot viola la primera ley de Asimov

Así dicho, podría sonar a pompa y artificio. De un vistazo superficial, podría parecer que el hecho de que una máquina haya causado daños, por suerte leves, a un niño, no pasaría más allá de cualquier otro accidente de un humano con un aparato; como, digamos, el que se pilla la corbata con la trituradora de documentos.

Pero cuando la máquina es un sofisticado robot de seguridad dotado de casi 30 sensores ad hoc y programado para vigilar a los malos y proteger a los buenos, entonces ahí lo tenemos, y no puede ser más literalmente cierto: «un robot no hará daño o, por inacción, permitirá que un ser humano sufra daño», Isaac Asimov dixit en la primera de sus famosísimas Tres Leyes de la Robótica.

Los hechos: el Centro Comercial de Stanford, en Palo Alto (California), cuenta en su plantilla con los K5 de Knightscope, una especie de Robocops con ruedas –aunque su aspecto recuerda más a R2D2– de metro y medio de alto y unos 130 kilos de peso que patrullan por el centro para servir de apoyo a los guardias de seguridad humanos. Cuando el K5 detecta alguna anomalía, como un ruido inusual o un cambio brusco de temperatura, o cuando detecta a algún criminal fichado… no, no dispara; se limita a alertar a sus jefes basados en el carbono.

El K5 de Knightscope. Imagen de Knightscope.

El K5 de Knightscope. Imagen de Knightscope.

Dado que el centro comercial está situado en el Silicon Valley, nada más apropiado que un vigilante robótico. Pero dado que una de las virtudes del K5 es que sale más barato que un guardia de carne y hueso, a unos 6,25 dólares la hora, nada más apropiado para rescatar la vieja polémica que se remonta a los tiempos de la Revolución Industrial.

El caso es que el pasado 7 de julio, una familia se encontraba visitando el centro comercial cuando el pequeño de 16 meses Harwin Cheng resultó arrollado por un K5. El robot pasó por encima de su pie, causándole un golpe de morros contra el suelo, arañazos en la pierna y una inflamación, además de un susto de muerte.

Como era de esperar, hay una diferencia sustancial entre la versión de la familia y la de Knightscope. La madre del niño, Tiffany, dijo a ABC7 News: “El robot golpeó a mi hijo en la cabeza y él cayó de cara hacia el suelo, y el robot no se detuvo y siguió avanzando”. Por su parte, según The Verge, Knightscope declaró en un comunicado que “el niño abandonó la vecindad de sus guardianes y comenzó a correr hacia la máquina. La máquina giró a la izquierda para evitar al niño, pero el niño corrió hacia atrás directamente hacia el frente de la máquina, momento en que la máquina se detuvo y el niño cayó al suelo”.

Naturalmente, ante tal discrepancia caben pocas dudas sobre qué versión creer, aunque solo sea porque la de Knightscope no explica claramente las lesiones del niño; la empresa asegura que los sensores del robot no detectaron vibración, como debía haber ocurrido al pasar sobre un pie. Incluso el Roomba de iRobot, esa aspiradora casera que se convirtió en la primera máquina de uso doméstico admitida en el Salón de la Fama de los Robots de la Universidad Carnegie Mellon, sabe detenerse cuando encuentra un obstáculo.

Por otra parte, quienes tenemos hijos también sabemos que, cuando se empeñan, no existe robot en la galaxia capaz de esquivarlos. Sea como fuere, la compañía ha presentado sus disculpas a la familia y la ha invitado a conocer sus instalaciones, aunque no está claro si a los Cheng les quedarán ganas. Por el momento, los K5 del centro comercial han tenido que entregar sus placas y han quedado suspendidos de empleo y sueldo.

Aunque afortunadamente el suceso no ha pasado de anécdota, ilustra una situación que sin duda se repetirá con mayor frecuencia a medida que nuestra interacción con los robots se vaya multiplicando. Y lo peor de todo es que no siempre los casos que puedan presentarse estarán tan fácilmente cubiertos por las tres sencillas reglas de Asimov. Algo que escapa a este código básico y que últimamente ha sido objeto de comentarios es el dilema moral, especialmente en el caso de los coches robotizados autónomos que Tesla y otras compañías quieren popularizar en los próximos años.

El pasado mayo, un coche autónomo Tesla causó la muerte de su único ocupante cuando no pudo esquivar un camión que se interpuso de repente. Al parecer, el vehículo viajaba en modo de piloto automático mientras su conductor veía una película de Harry Potter, y los sensores del coche no distinguieron el camión blanco contra el cielo luminoso. La semana pasada se produjo otro accidente de un Tesla, esta vez sin daños. Aquí no hay debate posible: fue un error de la tecnología que revela sus imperfecciones.

Pero imaginemos esta otra situación: un coche autónomo circula con ocupantes en su interior, cuando de repente se encuentra inesperadamente con un obstáculo en el camino sin tiempo para frenar. Tiene dos opciones: estrellarse, poniendo en riesgo las vidas de sus pasajeros, o eludir el obstáculo y arrollar a un grupo de peatones. ¿Cuál es la decisión correcta? ¿Depende de si hay más personas dentro del coche o en la acera? ¿De si hay niños? ¿Podrán los afectados o sus familiares demandar al fabricante del coche? ¿Querría algún fabricante arriesgarse a perder una demanda con indemnizaciones millonarias?

El pasado junio, un estudio publicado en Science reunía una serie de encuestas que planteaban este dilema. La mayoría de los encuestados pensaban que el coche debería optar por sacrificar a sus ocupantes, aunque opinaban que esto no debería regularse por ley. Y como consecuencia de todo ello, se mostraban reacios a montar en coches que podrían tomar la decisión de liquidarlos para no dañar a otros.

La realidad puede ser más complicada que la ficción. Y si algo queda claro, es que tres leyes no bastan.

¿Y si los aviones se pilotaran solos?

La semana pasada el visionario, tecnólogo y empresario Elon Musk, responsable de PayPal, SpaceX y Tesla Motors, y a quien algunos medios suelen definir como la versión real de Tony Stark, provocó cierto revuelo en internet cuando dijo: «En un futuro distante, los legisladores podrían prohibir los coches conducidos porque son demasiado peligrosos». Musk pronunció esta frase en la Conferencia de Tecnología GPU, en San José (California), ante una audiencia de 4.000 personas durante un mano a mano con Jen-Hsun Huang, CEO de la compañía tecnológica NVIDIA, a propósito de la presentación de un ordenador de conducción autónoma desarrollado por esta empresa.

Ilustración del F 015 Luxury in Motion, el Mercedes autoconducido. Imagen de Mercedes-Benz.

Ilustración del F 015 Luxury in Motion, el Mercedes autoconducido. Imagen de Mercedes-Benz.

Musk no vaticinó que las calles y carreteras se llenarán de coches autoconducidos de la noche a la mañana; aclaró que será un cambio lento y que, si los vehículos autónomos estuvieran disponibles mañana mismo, la transición llevaría 20 años. También pronosticó que los legisladores se opondrán frontalmente a autorizar la circulación de estos coches, hasta que varios años de pruebas acumuladas les convenzan de su seguridad. Pero se mostró confiado en que esta evolución será inevitable. «Creo que llegará a ser algo normal. Antes había ascensoristas, y luego inventamos circuitería para que el ascensor supiera llegar a tu piso. Así serán los coches», sugirió. A continuación se zambulló en su Twitter para precisar que «Tesla está decididamente a favor de que a la gente se le deje conducir sus coches, y siempre lo estará», para luego añadir: «Sin embargo, cuando los coches autoconducidos sean más seguros que los conducidos por humanos, el público podría ilegalizar estos últimos. Espero que no».

Lo cierto es que muchas compañías con tradición de saber en qué invierten su dinero, como Google, Mercedes-Benz o la propia Tesla, entre otras, están desarrollando este tipo de tecnologías de conducción autónoma. Aunque su comercialización se vea aún muy lejana, si hemos de juzgar por la tendencia, parece que los expertos creen viable que algún día las carreteras se llenarán de coches conduciendo solos, comunicándose y cooperando entre ellos sin intervención humana. Según Musk, lo más complicado será lograr que estos sistemas funcionen en la franja entre los 20 y los 80 kilómetros por hora, en entornos urbanos y suburbanos con peatones, ciclistas, mucho tráfico cruzado y demás interferencias. En cambio, el tecnólogo cree que será más sencillo conseguirlo en un escenario de carreteras y autopistas, por encima de los 80 km/h.

Un tren automático de la línea 9 del metro de Barcelona. Imagen de Javierito92 / Wikipedia.

Un tren automático de la línea 9 del metro de Barcelona. Imagen de Javierito92 / Wikipedia.

Los sistemas de conducción automática llevan ya varios años introduciéndose con éxito en las redes de metro con distintos grados de autonomía, desde aquellos casos en los que el tren lleva un conductor que se encarga de abrir y cerrar las puertas y de supervisar el funcionamiento, hasta los casos en los que se prescinde por completo de la presencia humana, como en la lanzadera de la terminal T4 del aeropuerto de Barajas. Barcelona y Madrid se unen a la larga lista de ciudades del mundo que incorporan trenes automáticos, en la mayor parte de los casos aún con presencia de conductor. Pero parece evidente que el mayor obstáculo para que los trenes circulen sin maquinista ya no es tecnológico, sino psicológico: tal vez aún sea tranquilizador comprobar que al volante hay un ser humano. Sin contar con que habría muchos puestos de trabajo en peligro. Pero ¿qué habría ocurrido si el Alvia de la curva de Angrois hubiera circulado de forma autónoma?

Es evidente que el salto ahora es hacia arriba. Tirando de la última frase, el error humano está también detrás de la mayoría de los desastres aéreos, según datos de la web planecrashinfo.com. Aunque los expertos afirman que un avión no suele caer por una sola causa, sino más bien por una desafortunada concatenación, desde la década de 1950 el 53% de los accidentes aéreos se han debido a errores del piloto como razón primaria, ya sea única o unida a otras circunstancias meteorológicas o mecánicas que podrían haberse resuelto con un pilotaje más diestro. Por el contrario, los fallos mecánicos irresolubles fueron responsables del 20% de los accidentes. El resto se divide entre otras causas, como sabotajes u otros errores humanos, por ejemplo de mantenimiento o de control aéreo.

Merece la pena insistir: más de la mitad de todos los accidentes aéreos de la historia desde 1950 no se habrían producido sin el error humano. En la memoria quedan tragedias como la del mayor desastre en número de víctimas (583), el del aeropuerto tinerfeño de Los Rodeos en 1977, cuando dos Boeing 747 colisionaron en pista debido a un estúpido malentendido que llevó a un piloto a despegar cuando aún no tenía autorización. O el más reciente caso del vuelo de Spanair en 2008, cuyos pilotos trataron de levantar el vuelo con una configuración errónea de las alas. O la casi incomprensible caída al mar del vuelo 447 de Air France en 2009, causada porque un inexperto copiloto malinterpretó el comportamiento de su avión y se empeñó repetidamente en hacer justo lo contrario de lo que debía. Por no hablar de los casos en los que ha sido el piloto quien ha estrellado deliberadamente la nave, ahora de triste actualidad y de insólita frecuencia, ya que se sospecha que el vuelo de Malaysia Airlines desaparecido hace un año pudo sufrir un destino similar.

Ahora, cabría preguntarse no solo si la idea de confiar nuestra seguridad a aviones autoguiados es posible, sino también si es deseable. Respecto a esto último, el concepto espeluznará a muchos, y sería de esperar que contara con la repulsa general. Respecto a si es viable, el titular es que depende de quién opine. Según el piloto y bloguero Patrick Smith, la idea de que actualmente los aviones vuelan solos está «ridículamente alejada de la realidad». «La prensa y los comentaristas repiten esta basura constantemente, y millones de personas llegan a creérselo», escribe Smith.

Otros, como Stephen Rice, psicólogo especializado en ingeniería y concretamente en el factor humano de la aviación, aseguran que «la tecnología ya está ahí; los aviones modernos podrían despegar, volar y aterrizar solos», según comentaba a la web BuzzFeed. En la misma línea, el director del programa de aviones no tripulados de la Universidad Estatal de Nuevo México, Doug Davis, señalaba a la BBC: «Creemos que los aviones no tripulados son la próxima gran transformación de la industria de la aviación». Y recientemente era nada menos que el director general de tecnología de Boeing, John Tracy, quien afirmaba: «Con respecto a los aviones comerciales, no tenemos ninguna duda de que podemos resolver el problema del vuelo autónomo».

El avión espacial Boeing X-37B en la base aérea de Vandenberg. Imagen de United States Air Force / Wikipedia.

El avión espacial Boeing X-37B en la base aérea de Vandenberg. Imagen de United States Air Force / Wikipedia.

El piloto automático ya ha cumplido los cien años. Los primeros sistemas rudimentarios se limitaban a mantener la altitud y el rumbo durante el vuelo de crucero. En 1930, la revista Popular Science Monthly informaba sobre un dispositivo que permitía «guiar un avión en su curso durante tres horas sin ayuda humana». Los sistemas actuales, concebidos para casos de condiciones meteorológicas extremas, permiten incluso llevar un avión a tierra sin intervención directa de la tripulación, que puede limitarse a supervisar el proceso. El ejército de EE. UU. cuenta con el Boeing X-37B, un pequeño transbordador espacial no tripulado, y el Northrop Grumman X-47B, un avión de combate semiautónomo. Por supuesto, el «semi» no es un compromiso satisfactorio: ningún pasajero querría subir a un dron dirigido por control remoto; de haber un humano a los mandos, preferiríamos que compartiera nuestro destino, y no que abandonara los controles para irse a la sala de café cuando nosotros estamos a 30.000 pies de altura. Pero la británica BAE Systems ya ha probado su Jetstream autónomo por el espacio aéreo de Reino Unido con una tripulación humana que se limitaba a mirar.

Hoy todavía el piloto automático es como nuestros ordenadores personales; lo que el director del Instituto de Investigación en Inteligencia Artificial (IIIA) del CSIC, Ramón López de Mántaras, llama «sabios idiotas». En el vuelo 447 de Air France, el error del copiloto se produjo después de que el sistema automático se desconectara porque la congelación de las sondas externas le impedía conocer los parámetros de vuelo, por lo que dejó el control en manos de los tripulantes. En casos como este, el factor humano es imprescindible, aunque en aquel caso concreto no hiciera sino empeorar la situación. Pero los avances en inteligencia artificial también se están aplicando a la aviónica, y ya se experimenta con sistemas capaces de aprender de la experiencia.

Tal vez toda esta cuestión no tendría mayor recorrido si las aerolíneas pudieran garantizarnos que siempre volaremos bajo el mando de un piloto veterano, experto, curtido en mil adversidades, emocionalmente estable y psicológicamente férreo. Pero obviamente no es así, y nunca lo será. Y si en el futuro se nos llegara a presentar la elección entre confiar nuestra seguridad a una máquina (supongamos que casi) perfecta o asumir la posibilidad de viajar a merced del capricho de un sujeto perturbado, profesional-personal-emocionalmente inmaduro al que le acaba de dejar la novia, este que suscribe no tendría ninguna duda.