BLOGS
Ciencias mixtas Ciencias mixtas

Los secretos de las ciencias para
los que también son de letras

Entradas etiquetadas como ‘IA’

“En los drones militares autónomos falta la tecnología para distinguir a los objetivos de los civiles”

En los últimos años y más aún en los últimos meses, tanto en los medios políticos como en los científico-tecnológicos se viene hablando de los distintos avances que se están acometiendo hacia el desarrollo de drones militares autónomos, aquellos que podrían seleccionar sus objetivos y abatirlos (eufemismo de “matar”) sin intervención humana, guiándose por sus propias decisiones basadas en algoritmos de Inteligencia Artificial (IA) y aprendizaje automático.

Actualmente existen drones militares armados como el MQ-9 Reaper de General Atomics, que forma parte del arsenal de varios países; España comenzará a utilizarlos en 2019. Estos aparatos pueden volar solos, aunque suelen pilotarse a distancia; pero no matan solos.

Dron MQ-9 Reaper. Imagen de USAF.

Dron MQ-9 Reaper. Imagen de USAF.

La posibilidad de que algún día despeguen drones capaces de decidir por sí mismos sobre la vida y la muerte de seres humanos no solo es escalofriante, sino que según los expertos estas armas serían considerablemente más difíciles de vigilar que las nucleares, químicas o biológicas. Para estas se necesitan instalaciones militares específicas que pueden ser monitorizadas con mayor o menor facilidad, incluso vía satélite. Por el contrario, dicen los expertos, lo que distingue a los drones autónomos de los actuales es el software, y esto no puede vigilarse desde el espacio; menos aún teniendo en cuenta que gran parte de la tecnología implicada es de origen civil.

Por si aún dudan sobre la conveniencia de que estas tecnologías lleguen a ver la luz, les recomiendo ver este vídeo titulado Slaughterbots (Robots asesinos), elaborado por la Campaña contra los Robots Asesinos promovida por el Comité Internacional para el Control de las Armas Robóticas (ICRAC) y otras organizaciones. Hay quienes lo han tildado de alarmista. Pero necesariamente alarmista.

Mientras trabajaba en un reportaje para otro medio, me pareció interesante recabar y traerles aquí una breve visión de uno de los mayores expertos en esta área. El científico computacional Jeremy Straub, profesor de la Universidad Estatal de Dakota del Norte (EEUU) y director adjunto del Instituto de Investigación y Formación en Ciberseguridad, trabaja en IA y en sus aplicaciones autónomas aeroespaciales. Por tanto, Straub es uno de los científicos que se encuentran en esa incómoda encrucijada, desarrollando tecnologías que pueden aportar notables beneficios a la humanidad, pero que también pueden aplicarse para causar un inmenso daño.

¿Existe ya la tecnología de drones autónomos?

Actualmente ya se utiliza bastante autonomía en el vuelo de drones. Incluso muchos drones personales tienen navegación por GPS de punto a punto. Los drones militares pueden hacer uso de la misma tecnología de autopilotado. Los drones deben tener también la capacidad de operar de forma autónoma hasta cierto punto, en caso de que las comunicaciones se pierdan o sean interferidas por un enemigo, por lo que esto también está presente en los aparatos militares actuales.

¿Qué podría salir mal?

En el presente hay algunos obstáculos técnicos. Uno de los principales es la necesidad de identificar de forma precisa a los posibles objetivos. En particular, falta la tecnología necesaria para distinguir a los objetivos legítimos de los civiles o transeúntes. Para estas decisiones se requiere un contexto significativo, algo que ahora no es técnicamente práctico.

¿Cree posible que llegue a acordarse un veto internacional para este tipo de armas, como están impulsando varias organizaciones?

Personalmente me sorprendería bastante que se llegara al acuerdo de cualquier tipo de veto, porque ciertas naciones tienen más capacidades que otras en esta área, y lo ven como una ventaja competitiva. Además, los países podrían estar preocupados por el posible desarrollo secreto de estas armas por parte de los no firmantes del tratado, lo que les haría recelar de abandonar o limitar sus propios programas.

Si no se llega a un veto, ¿podría el desarrollo de los drones autónomos llevar a una situación similar a la de las armas nucleares en la Guerra Fría, de no agresión por disuasión?

Una limitación del uso basada en la disuasión, al estilo de la de la Guerra Fría, parece una situación plausible. Dado que el uso de los vehículos aéreos no tripulados no crea el mismo tipo de destrucción a gran escala que las armas nucleares, no estoy completamente seguro de que esto llegara a suprimir por completo el uso de los drones y sus ataques. Sin embargo, probablemente sí impediría un ataque masivo a gran escala que sería respondido de forma similar por la propia flota de drones del país atacado.