BLOGS
Ciencias mixtas Ciencias mixtas

Los secretos de las ciencias para
los que también son de letras

Entradas etiquetadas como ‘AutoML’

Inteligencia Artificial sin supervisión humana: ¿qué puede salir mal?

El físico Stephen Hawking lleva unos años transmutado en profeta del apocalipsis, urgiéndonos a colonizar otros planetas para evitar nuestra pronta extinción, advirtiéndonos sobre los riesgos de contactar con especies alienígenas más avanzadas que nosotros, o alertándonos de que la Inteligencia Artificial (IA) puede aniquilarnos si su control se nos va de las manos.

En su última aparición pública, en una entrevista para la revista Wired, Hawking dice: “Temo que la IA reemplace por completo a los humanos. Si la gente diseña virus informáticos, alguien diseñará IA que mejore y se replique a sí misma. Esta será una nueva forma de vida que superará a los humanos”. Los temores de Hawking son compartidos por personajes como Elon Musk (SpaceX, Tesla), pero no por otros como Bill Gates (Microsoft) o Mark Zuckerberg (Facebook).

Stephen Hawking en la Universidad de Cambridge. Imagen de Lwp Kommunikáció / Flickr / CC.

Stephen Hawking en la Universidad de Cambridge. Imagen de Lwp Kommunikáció / Flickr / CC.

La referencia de Hawking a los virus informáticos es oportuna. Como he contado recientemente en otro medio, los primeros virus creados en los años 70 y a principios de los 80 en los laboratorios de investigación no eran agresivos, sino que eran herramientas experimentales destinadas a medir el tamaño de la red o a probar su capacidad de diseminación. O se trataba de simples bromas sin malicia. El primer virus nocivo, llamado Brain y creado por dos hermanos paquistaníes en 1986, era tan inocente que sus autores incluían su información de contacto para distribuir la cura. Brain era un virus justiciero, que tenía por objeto castigar a quienes piratearan el software desarrollado por los dos hermanos.

Pero cuando la computación viral escapó del laboratorio y llegó a los garajes, pronto comenzaron a aparecer los virus realmente tóxicos, algunos creados con ánimo de lucro, otros simplemente con ánimo de hacer daño por hacer daño. Una vez que los sistemas de IA se popularicen y se pongan al alcance de cualquier persona con más conocimientos informáticos que conciencia moral, es evidente que habrá quienes quieran utilizarlos con fines maliciosos.

Y cuando esto ocurra, puede ser difícil evitar desastres, dado que uno de los objetivos actuales de los investigadores es precisamente desarrollar sistemas de IA que puedan funcionar sin intervención humana.

Un ejemplo lo conté ayer a propósito de la aproximación de la realidad virtual a la real, y es importante insistir en cuál es la diferencia entre los rostros creados por NVIDIA que mostré ayer y las casi perfectas recreaciones digitales que hoy vemos en el cine de animación y los videojuegos. Como ejemplo, el Blog del Becario de esta casa contaba la historia de una pareja de artistas digitales japoneses que producen caracteres humanos hiperrealistas como Saya, una chica virtual. Pero los personajes que producen Teruyuki y Yuka Ishikawa, aunque lógicamente generados por ordenador, llevan detrás un largo trabajo de artesanía digital: según los Ishikawa, todas sus texturas son pintadas a mano, no clonadas de fotografías.

Por el contrario, en la creación de las celebrities virtuales de NVIDIA que traje ayer aquí no ha intervenido la mano de ningún artista: han sido generadas enteramente por las dos redes neuronales que componen la GAN, en un proceso sin supervisión humana.

La eliminación del factor humano ha sido la clave también en el desarrollo de AlphaGo Zero, la nueva máquina de DeepMind (Google) para jugar al juego tradicional chino Go. La generación anterior aprendía analizando miles de partidas de los mejores jugadores del mundo. Gracias a este aprendizaje, la anterior versión de AlphaGo consiguió vencer al campeón mundial, el chino Ke Jie. Ke describió la máquina de DeepMind como el “dios del Go”.

Juego del Go. Imagen de PublicDomainPictures.net.

Juego del Go. Imagen de PublicDomainPictures.net.

Pero para crear AlphaGo Zero, los investigadores de DeepMind han decidido prescindir de la enseñanza humana: simplemente le han suministrado las reglas básicas del juego, y han dejado que sea la propia máquina la que se enseñe a sí misma. Los resultados son escalofriantes: en solo tres días de aprendizaje, Zero ganó cien partidas de cien a AlphaGo Lee, una versión más antigua. En 21 días alcanzó el nivel de AlphaGo Master, la versión que venció a Ke. En 40 días, Zero se convirtió indiscutiblemente en el mejor jugador de Go del mundo y de la historia, acumulando un conocimiento superior a miles de años de práctica.

Los creadores de la red neuronal de Zero escribieron en la revista Nature que su capacidad es “sobrehumana”. El científico computacional Nick Hynes, que no participó en el trabajo, dijo a Gizmodo que Zero es “como una civilización alienígena inventando sus propias matemáticas”.

La lección aprendida del caso de Zero es que, al menos en ciertos campos, la IA progresa mucho más deprisa y con mayor eficacia cuando prescinde de la enseñanza de esos torpes seres orgánicos llamados humanos. Basándose en este principio, la nueva tecnología desarrollada por Google y llamada AutoML consiste en dejar que las redes neuronales las diseñen las propias redes neuronales; es decir, crear IA que a su vez crea mejores versiones de IA. Máquinas que diseñan máquinas. Como Skynet, pero sin robots.

¿Qué puede salir mal? Es cierto que numerosos expertos en computación y en IA califican a Hawking de alarmista, y sus opiniones de perniciosas para la imagen pública de la IA, y aclaran que los sistemas con capacidad de traernos el apocalipsis de la saga Terminator aún son solo cosas de la ciencia ficción. Al fin y al cabo, concluyen estos expertos, Hawking no es un especialista en IA.

Pero dejando aparte que una de las mentes más brillantes del mundo merece crédito y atención cuando opina sobre cualquier cosa que le dé la gana –faltaría más, si hasta se les pregunta a los futbolistas sobre política–, y que en realidad la especialidad de Hawking, y lo que ha hecho maravillosamente bien, es precisamente hacer predicciones teóricas a través de largas y complicadas cadenas de razonamientos lógicos con variables a veces desconocidas… Incluso dejando aparte todo esto, ¿quién es el que despacha los títulos de especialista en predecir el futuro?