BLOGS
Ciencias mixtas Ciencias mixtas

Los secretos de las ciencias para
los que también son de letras

Entradas etiquetadas como ‘inteligencia artificial’

Inteligencia Artificial sin supervisión humana: ¿qué puede salir mal?

El físico Stephen Hawking lleva unos años transmutado en profeta del apocalipsis, urgiéndonos a colonizar otros planetas para evitar nuestra pronta extinción, advirtiéndonos sobre los riesgos de contactar con especies alienígenas más avanzadas que nosotros, o alertándonos de que la Inteligencia Artificial (IA) puede aniquilarnos si su control se nos va de las manos.

En su última aparición pública, en una entrevista para la revista Wired, Hawking dice: “Temo que la IA reemplace por completo a los humanos. Si la gente diseña virus informáticos, alguien diseñará IA que mejore y se replique a sí misma. Esta será una nueva forma de vida que superará a los humanos”. Los temores de Hawking son compartidos por personajes como Elon Musk (SpaceX, Tesla), pero no por otros como Bill Gates (Microsoft) o Mark Zuckerberg (Facebook).

Stephen Hawking en la Universidad de Cambridge. Imagen de Lwp Kommunikáció / Flickr / CC.

Stephen Hawking en la Universidad de Cambridge. Imagen de Lwp Kommunikáció / Flickr / CC.

La referencia de Hawking a los virus informáticos es oportuna. Como he contado recientemente en otro medio, los primeros virus creados en los años 70 y a principios de los 80 en los laboratorios de investigación no eran agresivos, sino que eran herramientas experimentales destinadas a medir el tamaño de la red o a probar su capacidad de diseminación. O se trataba de simples bromas sin malicia. El primer virus nocivo, llamado Brain y creado por dos hermanos paquistaníes en 1986, era tan inocente que sus autores incluían su información de contacto para distribuir la cura. Brain era un virus justiciero, que tenía por objeto castigar a quienes piratearan el software desarrollado por los dos hermanos.

Pero cuando la computación viral escapó del laboratorio y llegó a los garajes, pronto comenzaron a aparecer los virus realmente tóxicos, algunos creados con ánimo de lucro, otros simplemente con ánimo de hacer daño por hacer daño. Una vez que los sistemas de IA se popularicen y se pongan al alcance de cualquier persona con más conocimientos informáticos que conciencia moral, es evidente que habrá quienes quieran utilizarlos con fines maliciosos.

Y cuando esto ocurra, puede ser difícil evitar desastres, dado que uno de los objetivos actuales de los investigadores es precisamente desarrollar sistemas de IA que puedan funcionar sin intervención humana.

Un ejemplo lo conté ayer a propósito de la aproximación de la realidad virtual a la real, y es importante insistir en cuál es la diferencia entre los rostros creados por NVIDIA que mostré ayer y las casi perfectas recreaciones digitales que hoy vemos en el cine de animación y los videojuegos. Como ejemplo, el Blog del Becario de esta casa contaba la historia de una pareja de artistas digitales japoneses que producen caracteres humanos hiperrealistas como Saya, una chica virtual. Pero los personajes que producen Teruyuki y Yuka Ishikawa, aunque lógicamente generados por ordenador, llevan detrás un largo trabajo de artesanía digital: según los Ishikawa, todas sus texturas son pintadas a mano, no clonadas de fotografías.

Por el contrario, en la creación de las celebrities virtuales de NVIDIA que traje ayer aquí no ha intervenido la mano de ningún artista: han sido generadas enteramente por las dos redes neuronales que componen la GAN, en un proceso sin supervisión humana.

La eliminación del factor humano ha sido la clave también en el desarrollo de AlphaGo Zero, la nueva máquina de DeepMind (Google) para jugar al juego tradicional chino Go. La generación anterior aprendía analizando miles de partidas de los mejores jugadores del mundo. Gracias a este aprendizaje, la anterior versión de AlphaGo consiguió vencer al campeón mundial, el chino Ke Jie. Ke describió la máquina de DeepMind como el “dios del Go”.

Juego del Go. Imagen de PublicDomainPictures.net.

Juego del Go. Imagen de PublicDomainPictures.net.

Pero para crear AlphaGo Zero, los investigadores de DeepMind han decidido prescindir de la enseñanza humana: simplemente le han suministrado las reglas básicas del juego, y han dejado que sea la propia máquina la que se enseñe a sí misma. Los resultados son escalofriantes: en solo tres días de aprendizaje, Zero ganó cien partidas de cien a AlphaGo Lee, una versión más antigua. En 21 días alcanzó el nivel de AlphaGo Master, la versión que venció a Ke. En 40 días, Zero se convirtió indiscutiblemente en el mejor jugador de Go del mundo y de la historia, acumulando un conocimiento superior a miles de años de práctica.

Los creadores de la red neuronal de Zero escribieron en la revista Nature que su capacidad es “sobrehumana”. El científico computacional Nick Hynes, que no participó en el trabajo, dijo a Gizmodo que Zero es “como una civilización alienígena inventando sus propias matemáticas”.

La lección aprendida del caso de Zero es que, al menos en ciertos campos, la IA progresa mucho más deprisa y con mayor eficacia cuando prescinde de la enseñanza de esos torpes seres orgánicos llamados humanos. Basándose en este principio, la nueva tecnología desarrollada por Google y llamada AutoML consiste en dejar que las redes neuronales las diseñen las propias redes neuronales; es decir, crear IA que a su vez crea mejores versiones de IA. Máquinas que diseñan máquinas. Como Skynet, pero sin robots.

¿Qué puede salir mal? Es cierto que numerosos expertos en computación y en IA califican a Hawking de alarmista, y sus opiniones de perniciosas para la imagen pública de la IA, y aclaran que los sistemas con capacidad de traernos el apocalipsis de la saga Terminator aún son solo cosas de la ciencia ficción. Al fin y al cabo, concluyen estos expertos, Hawking no es un especialista en IA.

Pero dejando aparte que una de las mentes más brillantes del mundo merece crédito y atención cuando opina sobre cualquier cosa que le dé la gana –faltaría más, si hasta se les pregunta a los futbolistas sobre política–, y que en realidad la especialidad de Hawking, y lo que ha hecho maravillosamente bien, es precisamente hacer predicciones teóricas a través de largas y complicadas cadenas de razonamientos lógicos con variables a veces desconocidas… Incluso dejando aparte todo esto, ¿quién es el que despacha los títulos de especialista en predecir el futuro?

Pronto no podremos distinguir la realidad virtual de la real

Observen estas fotos de caras. ¿Notan algo raro en ellas?

Imagen de NVIDIA.

Imagen de NVIDIA.

Parecen rostros de gente guapa, celebrities en la alfombra roja o en un photocall de alguna gala. Pero no lograrán reconocer a ni uno solo de ellos. Porque estas personas jamás han existido: son caras virtuales generadas por un sistema de Inteligencia Artificial (IA) desarrollado por NVIDIA, la compañía que tal vez haya fabricado la tarjeta gráfica del ordenador en el que estén leyendo este artículo.

Imagino que son perfectamente conscientes de cómo han evolucionado los gráficos por ordenador en unas pocas décadas. Pero no puedo resistir la tentación de ilustrarlo con este ejemplo. Así era Indiana Jones hace 35 años en el videojuego de la consola Atari Raiders of the Lost Ark, con el cual este que suscribe disfrutaba jugando en su infancia, y mucho:

Indiana Jones en el videojuego Raiders of the Lost Ark de Atari (1982). Imagen de Atari.

Indiana Jones en el videojuego Raiders of the Lost Ark de Atari (1982). Imagen de Atari.

Los autores del trabajo han empleado un tipo de algoritmo de IA creado en 2014 llamado Red Generativa Antagónica (GAN por las siglas de su nombre en inglés, Generative Adversarial Network), que emplea dos redes neuronales trabajando en equipo: una genera las caras, mientras que la otra las evalúa.

Las evaluaciones de la red discriminadora ayudan a la red generadora a ir aprendiendo a crear caras cada vez más realistas, mientras que el perfeccionamiento del trabajo de la red generadora ayuda a la red discriminadora a mejorar su capacidad de identificar los errores. Así, la GAN aprende de forma no supervisada, a partir de sus propias observaciones. En este caso, los investigadores de NVIDIA le suministraron a la GAN una base de datos de fotos de celebrities, y el sistema aprendió a crear las suyas propias.

Sistemas como esta GAN de NVIDIA están comenzando a saltar la barrera del llamado Uncanny Valley o Valle Inquietante, una expresión acuñada para la robótica y que describe el efecto de aquellas creaciones humanoides que se aproximan bastante a la realidad, pero sin llegar a confundirse con ella. En este caso, casi cuesta creer que los rostros creados por la GAN no correspondan a personas reales.

Pero el actual perfeccionamiento en la imitación de lo humano va más allá de unos rostros estáticos. WaveNet, una red neuronal creada por la compañía DeepMind, propiedad de Google, consigue la que según los expertos es hasta ahora la voz sintética más parecida a la humana. Juzguen ustedes (en este vídeo, WaveNet se compara con otros sistemas existentes):

Dicen que en la voz aún se nota un cierto tinte artificial. Tal vez sea cierto, pero personalmente creo que si escucháramos estas voces fuera de un contexto en el que se nos pida juzgar su autenticidad, nunca sospecharíamos que detrás de ellas no hay una laringe y una boca humanas.

También espectacular es el sistema desarrollado por la compañía canadiense Lyrebird. A partir de un solo minuto de grabación de audio, es capaz de recrear digitalmente la voz de cualquier persona. Como ejemplo, Lyrebird presenta la voz recreada de Donald Trump, pero cualquier usuario puede registrarse en su web y recrear digitalmente su propia voz.

En este camino de la virtualidad hacia el perfeccionamiento en la imitación de la realidad, la guinda la pone el sistema creado por un equipo de la Universidad de Washington (EEUU): a partir de un clip de audio con un discurso cualquiera, y otro fragmento de vídeo de alguien hablando, logra que el movimiento de los labios de la persona se sincronice con las frases grabadas. Es decir, construye un vídeo de alguien diciendo algo. Los investigadores utilizaron como ejemplo un discurso de Barack Obama:

El coautor del trabajo Steven Seitz aclaraba que su red neuronal no puede conseguir que una persona aparezca diciendo algo que nunca dijo, ya que debe utilizar como material de partida un clip de audio real con la voz de la persona en cuestión. “Simplemente tomamos palabras reales que alguien dijo y las transformamos en un vídeo realista de ese individuo”.

Claro que para eso está el sistema de Lyrebird, que sí puede lograr que cualquiera diga algo que jamás dijo. El sistema de la Universidad de Washington podría entonces transformar ese clip de audio ficticio en un vídeo tan falso como realista.

Todos estos desarrollos nos conducen hacia un escenario en el que pronto la realidad real y la realidad virtual solo estarán separadas por una barrera: una pantalla. Es decir, dado que los robots antropomórficos realistas aún distan mucho tiempo en el futuro, todavía podremos estar seguros de que lo tangible, todo aquello que podemos tocar, es real. Pero con respecto a cualquier cosa que se nos muestre a través de una pantalla, en unos pocos años será difícil distinguir si todo, todo, es real o no. Y en la era de la postverdad, la superación del Valle Inquietante nos lleva hacia un lugar aún más inquietante.

Inclinaos ante vuestro nuevo amo: Mario, el fontanero

Esta semana ha brotado en los medios una noticia sobre tecnología que se ha tratado con la misma ligereza que la presentación de un nuevo iPhone o una impresora 3D, y que, sin embargo, a mí me ha parecido de lo más espeluznante.

Antes de explicarlo, un poco de contexto: el día 11 de este mes, un grupo de científicos y tecnólogos publicaba una carta abierta en la web del Future of Life Institute (FLI), una organización sin ánimo de lucro dedicada a reflexionar e investigar sobre los retos que el futuro plantea a la humanidad, especialmente la inteligencia artificial (IA). En el documento, los expertos advierten de los riesgos de la IA si las investigaciones no se orientan específicamente a la consecución de objetivos beneficiosos, como la erradicación de la enfermedad y la pobreza.

Uno de los firmantes de la carta es el astrofísico Stephen Hawking, miembro de la junta directiva del FLI, quien ya en el pasado ha alertado de que el desarrollo de la IA sería el mayor hito de la historia de la especie humana, pero que “también podría ser el último” si no se implementan los mecanismos necesarios para que las máquinas inteligentes estén a nuestro servicio y no nos conviertan en sus esclavos. En la carta también ha estampado su firma Elon Musk, el magnate de la tecnología responsable de PayPal, SpaceX y Tesla Motors, así como una pléyade de científicos y tecnólogos de prestigiosas universidades y de compañías como Microsoft, Facebook y Google.

En mi última novela, Tulipanes de Marte (ATENCIÓN, SPOILER), introduzco un personaje que entra sin hacer ruido, pero que va cobrando peso hasta que su intervención se revela como decisiva en el desarrollo de la historia y en los destinos de sus protagonistas. Este personaje, Jacob, no es un ser humano, sino una máquina; la primera inteligencia artificial de la historia. Sus creadores lo diseñan con el fin de que sea capaz de buscar vida presente o pasada en Marte de forma completamente autónoma, una solución que sortea la exigencia de enviar exploradores humanos y que, de paso, mantiene a una computadora potencialmente peligrosa lejos de los asuntos de la Tierra. El cuerpo primario de Jacob es un vehículo posado en Marte; pero dado que no está compuesto de átomos, sino de bits, puede descargarse a otra máquina idéntica situada en la Tierra.

Al igual que el archifamoso HAL 9000, Jacob sufre un defecto de funcionamiento. Pero en lugar de convertirse en un asesino debido a un conflicto irresoluble en su programación, el fallo de Jacob es muy diferente. De hecho, en realidad ni siquiera podría denominarse avería, sino que es más bien una consecuencia lógica de su naturaleza. Jacob está construido aprovechando las ventajas de su soporte de grafeno, como la capacidad, rapidez y eficacia de computación, pero simulando todas las características de un cerebro humano. En nuestro procesamiento mental, las capacidades racionales, cognitivas y emocionales no pueden separarse. Aunque existen seres humanos que tienen afectada alguna de estas esferas, como la ausencia de empatía en los psicópatas, siempre consideramos estas situaciones como enfermedades o discapacidades. Jacob imita un cerebro humano sano, por lo que comienza a experimentar sentimientos que no comprende. Es emocionalmente inmaduro, así que trata de aprender cuáles son los patrones afectivos correctos a partir del comportamiento de los humanos. Y es así como descubre la afectividad, la soledad o la compasión, emociones que le impulsan a tomar decisiones bien intencionadas, pero equivocadas y con consecuencias inesperadamente graves.

En la novela, una modalidad de test de Turing inverso, que no se menciona explícitamente, revela que Jacob sabe diferenciar a las personas orgánicas de los que son como él. ¿Por qué entonces puede Jacob sentir compasión o afecto por los humanos, que no son sus iguales? Sencillamente, porque ha aprendido que así es como debe canalizar sus emociones. Es otra manera de aplicar las clásicas Leyes de la Robótica de Asimov, que incluyen la exigencia de no hacer daño a los seres humanos. Jacob lo lleva aún más allá, desarrollando verdaderos afectos.

Y hecha la introducción, ahora voy a la noticia. Un equipo de investigadores en computación de la Universidad de Tubinga (Alemania) se presentará a finales de este mes a la competición anual de vídeos organizada por la Asociación para el Avance de la Inteligencia Artificial (AAAI) con un clip titulado ¡Mario vive!, que utiliza el clásico personaje del fontanero bigotudo creado por Nintendo para modelizar el aprendizaje adaptativo que permite un comportamiento autónomo. El resultado es una secuencia en la que Mario avanza por su clásico paisaje de obstáculos a sortear –basado más bien en la versión antigua de la interfaz gráfica, no en las de los juegos actuales–, pero con una diferencia respecto a lo que estamos acostumbrados: no es un jugador humano quien lo maneja, ni sus movimientos han sido previamente programados. Es el propio Mario quien aprende y decide. Según narran los científicos en el vídeo, “este Mario ha adquirido conciencia de sí mismo y de su entorno, al menos hasta cierto grado”.

En el vídeo, Mario recibe información, que emplea para aprender y tomar sus propias decisiones basadas en su estado de ánimo. Responde a preguntas, busca monedas para saciar su hambre, explora su entorno cuando siente curiosidad, saluda y dice sentirse “muy bien”, excepto cuando sus amos humanos reducen su reservorio de felicidad. Entonces declara: “De alguna manera, me siento menos feliz. No tan bien”.

Y ahora viene lo espeluznante. En el juego de Mario Bros, uno de los cometidos del fontanero es saltar sobre los goombas, una especie de champiñones enemigos. Cuando la investigadora le dice “Escucha: Goomba muere cuando saltas sobre Goomba”, Mario responde con su tenebrosa voz sintetizada: “Si, lo comprendo. Si salto sobre Goomba, ciertamente muere”. Cuando después la investigadora le informa de que Goomba es un enemigo, Mario no duda en buscarlo y saltar sobre él, sabiendo que de esta manera lo mata.

De acuerdo, es solo un juego; un simple modelo cognitivo básico. Aún estamos lejos de fabricar computadoras inteligentes con verdadera y plena conciencia de su propia existencia. Pero es evidente que este Mario no sería capaz de distinguir entre Goomba y cualquier otro ente, real o virtual, orgánico o electrónico, que le fuera presentado como un enemigo. Si fuera capaz de abandonar su pantalla y se le instruyera para ello, mataría a un ser humano con la misma indiferencia con la que salta sobre Goomba, del mismo modo que el monstruo de Frankenstein, sin malicia alguna, arrojaba a la niña al estanque en el clásico de Universal de 1931. Es un claro ejemplo de la encrucijada que exponen los redactores de la carta del FLI: en estos momentos en que la IA aún está en pañales, la investigación debe tomar las riendas para asegurarnos de que en el futuro no crearemos monstruos.

Dejo aquí el vídeo de la demostración. No se dejen engañar por la tonadilla inocente y machacona; Mario no sentiría ninguna piedad.