Entradas etiquetadas como ‘inteligencia artificial’

¿Qué le falta a esta música generada por Inteligencia Artificial?

No, no es una adivinanza, ni una pregunta retórica. Realmente me pregunto qué es lo que le falta a la música generada por Inteligencia Artificial (IA) para igualar a la compuesta por humanos. Sé que ante esta cuestión es fácil desenvainar argumentos tecnoescépticos, una máquina no puede crear belleza, nunca igualará a la sensibilidad artística humana, etcétera, etcétera.

Pero en realidad todo esto no es cierto: las máquinas pintan, escriben, componen, y los algoritmos GAN (Generative Adversarial Network, o Red Antagónica Generativa) ya las están dotando de algo muy parecido a la imaginación. Además, y dado que las mismas máquinas también pueden analizar nuestros gustos y saber qué es lo que los humanos adoran, no tienen que dar palos de ciego como los editores o productores humanos: en breve serán capaces de escribir best sellers, componer hits y guionizar blockbusters.

El salto probablemente llegará cuando los consumidores de estos productos no sepamos (no «no notemos», sino «no sepamos») que esa canción, ese libro o esa película o serie en realidad han sido creados por un algoritmo y no por una persona. De hecho, la frontera es cada vez más difusa. Desde hace décadas la música y el cine emplean tanta tecnología digital que hoy serían inconcebibles sin ella. Y aunque siempre habrá humanos detrás de cualquier producción, la parcela de terreno que se cede a las máquinas es cada vez mayor.

Pero en concreto, en lo que se refiere a la música, algo aún falla cuando uno escucha esas obras creadas por IA. El último ejemplo viene de Relentless Doppelganger. Así se llama un streaming de música que funciona en YouTube 24 horas al día desde el pasado 24 de marzo (el vídeo, al pie de esta página), generando música technical death metal inspirada en el estilo de la banda canadiense Archspire, y en concreto en su último álbum Relentless Mutation (Doppelganger hace referencia a un «doble»).

Este inacabable streaming es obra de Dadabots, el nombre bajo el que se ocultan CJ Carr y Zack Zukowski, que han empleado un tipo de red neural llamado SampleRNN –originalmente concebida para convertir textos en voz– para generar hasta ahora diez álbumes de géneros metal y punk inspirados en materiales de grupos reales, incluyendo el diseño de las portadas y los títulos de los temas. Por ejemplo, uno de ellos, titulado Bot Prownies, está inspirado en Punk in Drublic, uno de los álbumes más míticos de la historia del punk, de los californianos NOFX.

Imagen de Dadabots.

Imagen de Dadabots.

Y, desde luego, cuando uno lo escucha, el sonido recuerda poderosamente a la banda original. En el estudio en el que Carr y Zukowski explicaban su sistema, publicado a finales del año pasado en la web de prepublicaciones arXiv, ambos autores explicaban que su propósito era inédito en la generación de música por IA: tratar de captar y reproducir las «distinciones estilísticas sutiles» propias de subgéneros muy concretos como el death metal, el math rock o el skate punk, que «pueden ser difíciles de describir para oyentes humanos no entrenados y están mal representadas por las transcripciones tradicionales de música».

En otras palabras: cuando escuchamos death metal o skate punk, sabemos que estamos escuchando death metal o skate punk. Pero ¿qué hace que lo sean para nuestros oídos? El reto para los investigadores de Dadabots consistía en que la red neural aprendiera a discernir estos rasgos propios de dichos subgéneros y a aplicarlos para generar música. Carr y Zukowski descubrieron que tanto el carácter caótico y distorsionado como los ritmos rápidos de estos géneros se adaptan especialmente bien a las capacidades de la red neural, lo que no sucede para otros estilos musicales.

Y sin duda, en este sentido el resultado es impresionante (obviamente, para oídos que comprenden y disfrutan de este tipo de música; a otros les parecerá simple ruido como el de las bandas originales). Pero insisto, aparte del hecho anecdótico de que las letras son simples concatenaciones de sílabas sin sentido, ya que no se ha entrenado a la red en el lenguaje natural, la música de Dadabots deja la sensación de que aún hay un paso crucial que avanzar. ¿Cuál es?

No lo sé. Pero tengo una impresión personal. Carr y Zukowski cuentan en su estudio que la red neural crea a partir de lo ya creado, lo cual es fundamental en toda composición musical: «Dado lo que ha ocurrido previamente en una secuencia, ¿qué ocurrirá después?», escriben Carr y Zukowski. «La música puede modelizarse como una secuencia de eventos a lo largo del tiempo. Así, la música puede generarse prediciendo ¿y entonces qué ocurre? una y otra vez».

Pero esto ocurre solo un sampleado tras otro, mientras que un tema escrito por un compositor humano tiene un sentido general, un propósito que abarca toda la composición desde el primer segundo hasta el último. Toda canción de cualquier género tiene una tensión interna que va mucho más allá de, por ejemplo, la resolución de los acordes menores en acordes mayores. Es algo más, difícil de explicar; pero al escuchar cualquier tema uno percibe un propósito general de que la música se dirige hacia un lugar concreto. Y da la sensación de que esto aún le falta a la música automática, dado que la máquina solo se interesa por un «después» a corto plazo, y no por lo que habrá más allá. Se echa de menos algo así como una tensión creciente que conduzca hacia un destino final.

Sin embargo, creo que ya pueden quedar pocas dudas de que la música generada por IA terminará también superando estos obstáculos. Ya tenemos muchos ejemplos y muy variados de composiciones cien por cien digitales. Y si hasta ahora ninguna de ellas ha conseguido instalarse como un hit, ya sea entre el público mayoritario o entre los aficionados a estilos musicales más marginales, se da la circunstancia de que tampoco ninguna de ellas ha cruzado la barrera de lo etiquetado como «diferente» porque su autor no es de carne y hueso. Probablemente llegará el momento en que un tema se convierta en un éxito o en un clásico sin que el público sepa que el nombre que figura en sus créditos no es el de la persona que lo compuso, sino el de quien programó el sistema para crearla.

Estas personas no existen, y crearlas puede ser adictivo

Fíjense en estas personas:

Parecen individuos perfectamente normales… salvo por el hecho de que jamás han existido. Las imágenes han sido creadas por inteligencia artificial; no son copias modificadas de personas reales, ni son pastiches de diversos rostros. Son caras cien por cien originales generadas por un algoritmo que ha aprendido a crearlas, del mismo modo que un músico utiliza su conocimiento adquirido para componer piezas nuevas sin copiar –se supone– otras existentes.

El secreto de esta perfección es un sistema llamado Red Generativa Antagónica o GAN (siglas de su nombre en inglés, Generative Adversarial Network), creado en 2014 por el científico computacional Ian Goodfellow, aunque la idea ya había sido anticipada en años anteriores por otros como Jürgen Schmidhuber y Roderich Gross.

La clave de la GAN es utilizar dos redes neuronales artificiales que compiten entre si: una genera las caras, mientras que la otra las evalúa para descubrir sus defectos. Ambas aprenden de sus errores, de modo que la primera va mejorando sus creaciones y la segunda va perfeccionando su capacidad de discriminación.

En un breve periodo de tiempo y con algo de entrenamiento previo, el sistema aprende no solo a reconocer patrones –qué hace que una cara sea una cara y no un frigorífico–, sino a crear nuevas representaciones extremadamente realistas, todo ello sin supervisión humana. Según los expertos, esta capacidad es una manera de dotar a las máquinas de imaginacion, algo que ya no es un privilegio exclusivo de nuestro cerebro.

Por el momento, las GAN se han utilizado con preferencia para producir representaciones visuales, no solo de rostros, sino también de gatos, coches o dormitorios. Como ya conté aquí, en 2017 la compañía de procesadores gráficos NVIDIA desarrolló una GAN para crear rostros de falsos famosos. Desde entonces, esta tecnología se ha perfeccionado; la última versión de NVIDIA, llamada StyleGAN, es capaz de manejar los diferentes rasgos de la cara de forma independiente para controlar el resultado general de su integración.

Las fotos mostradas en esta página se han creado mediante esta nueva tecnología, que el ingeniero de Uber Phillip Wang –sí, Uber es una compañía tecnológica, no un sindicato privado de taxis– ha aplicado en su web ThisPersonDoesNotExist.com (esta persona no existe); cada vez que se refresca la página, en unos segundos la GAN genera una nueva cara de una persona completamente inexistente.

A la vista está que los resultados son impresionantes. En el rato que he dedicado a juguetear con la GAN para escribir esta página, he comprobado que en general el resultado es casi irreprochable; al tamaño y la resolución mostrados, en la mayoría de los casos prácticamente no se aprecian errores de bulto.

Pero sí, también hay fallos. Y si uno se dedica a buscarlos, descubre que el juego de generar caras y buscar errores puede ser casi adictivo. Un caso curioso es el de los pendientes; al parecer, la GAN aún no ha aprendido que en la mayor parte de los casos las mujeres suelen llevar pendientes iguales en ambas orejas:

Y aunque muchos hombres también utilizamos pendientes, la GAN tampoco parece contemplar generalmente este caso; solo en una ocasión me ha aparecido un hombre con un pendiente, y es esta especie de popstar indonesio entrado en años:

A la GAN a veces le cuesta resolver el encaje de las gafas en la cara, lo que da lugar a efectos aberrantes, como las cejas dobles:

Otro error frecuente es el de los dientes. Fíjense en estos dos jóvenes:

Parecen muy bien logrados, hasta que uno se fija en que sus dientes están descolocados; hay un incisivo que cae justo en el centro de la boca. Esto es algo que se aprecia en muchas de las imágenes en las que el rostro aparece ligeramente ladeado.

Pero sin duda, donde la GAN falla con más frecuencia es en la resolución de los contornos y fondos. En muchos casos parece que la persona está posando delante de una obra de arte abstracta, o incluso que forma parte de ella:

Y cuando se añaden gorros o tocados, el resultado puede ser algo esperpéntico:

Claro que los gustos en cuestión de moda son enormemente personales:

Pero sin duda el caso más curioso, a la par que aterrador, es que en muchas imágenes parece existir alguien junto al rostro retratado que intenta sin éxito colarse en la foto. Y generalmente se trata de seres horripilantes. Con menos que esto, Iker Jiménez ha montado muchos programas:

A lo que se añaden los casos, raros pero también los hay, en los que la GAN directamente entra en barrena:

Y los casos en los que la GAN parece no decidirse entre crear un niño, una anciana u otra cosa que no se sabe muy bien qué es:

O si crear un clon infantil de Mickey Rourke, o variaciones de Jeff Goldblum virando hacia… ¿Oriental? ¿Mujer?

En definitiva y a la espera de que las GAN se apliquen a otros usos más útiles y prácticos, por el momento podemos entretenernos jugando a crear personas imaginarias. O para quien lo prefiera, gatos, que también tienen su versión. Respecto a si antes de eso las GAN llegarán a emplearse para otros usos menos edificantes, como poner a personas reales en situaciones en las que dichas personas no se pondrían ante una cámara… Deberemos acostumbrarnos a que en el futuro cada vez nos va a costar más diferenciar la realidad de la ficción.

«En los drones militares autónomos falta la tecnología para distinguir a los objetivos de los civiles»

En los últimos años y más aún en los últimos meses, tanto en los medios políticos como en los científico-tecnológicos se viene hablando de los distintos avances que se están acometiendo hacia el desarrollo de drones militares autónomos, aquellos que podrían seleccionar sus objetivos y abatirlos (eufemismo de «matar») sin intervención humana, guiándose por sus propias decisiones basadas en algoritmos de Inteligencia Artificial (IA) y aprendizaje automático.

Actualmente existen drones militares armados como el MQ-9 Reaper de General Atomics, que forma parte del arsenal de varios países; España comenzará a utilizarlos en 2019. Estos aparatos pueden volar solos, aunque suelen pilotarse a distancia; pero no matan solos.

Dron MQ-9 Reaper. Imagen de USAF.

Dron MQ-9 Reaper. Imagen de USAF.

La posibilidad de que algún día despeguen drones capaces de decidir por sí mismos sobre la vida y la muerte de seres humanos no solo es escalofriante, sino que según los expertos estas armas serían considerablemente más difíciles de vigilar que las nucleares, químicas o biológicas. Para estas se necesitan instalaciones militares específicas que pueden ser monitorizadas con mayor o menor facilidad, incluso vía satélite. Por el contrario, dicen los expertos, lo que distingue a los drones autónomos de los actuales es el software, y esto no puede vigilarse desde el espacio; menos aún teniendo en cuenta que gran parte de la tecnología implicada es de origen civil.

Por si aún dudan sobre la conveniencia de que estas tecnologías lleguen a ver la luz, les recomiendo ver este vídeo titulado Slaughterbots (Robots asesinos), elaborado por la Campaña contra los Robots Asesinos promovida por el Comité Internacional para el Control de las Armas Robóticas (ICRAC) y otras organizaciones. Hay quienes lo han tildado de alarmista. Pero necesariamente alarmista.

Mientras trabajaba en un reportaje para otro medio, me pareció interesante recabar y traerles aquí una breve visión de uno de los mayores expertos en esta área. El científico computacional Jeremy Straub, profesor de la Universidad Estatal de Dakota del Norte (EEUU) y director adjunto del Instituto de Investigación y Formación en Ciberseguridad, trabaja en IA y en sus aplicaciones autónomas aeroespaciales. Por tanto, Straub es uno de los científicos que se encuentran en esa incómoda encrucijada, desarrollando tecnologías que pueden aportar notables beneficios a la humanidad, pero que también pueden aplicarse para causar un inmenso daño.

¿Existe ya la tecnología de drones autónomos?

Actualmente ya se utiliza bastante autonomía en el vuelo de drones. Incluso muchos drones personales tienen navegación por GPS de punto a punto. Los drones militares pueden hacer uso de la misma tecnología de autopilotado. Los drones deben tener también la capacidad de operar de forma autónoma hasta cierto punto, en caso de que las comunicaciones se pierdan o sean interferidas por un enemigo, por lo que esto también está presente en los aparatos militares actuales.

¿Qué podría salir mal?

En el presente hay algunos obstáculos técnicos. Uno de los principales es la necesidad de identificar de forma precisa a los posibles objetivos. En particular, falta la tecnología necesaria para distinguir a los objetivos legítimos de los civiles o transeúntes. Para estas decisiones se requiere un contexto significativo, algo que ahora no es técnicamente práctico.

¿Cree posible que llegue a acordarse un veto internacional para este tipo de armas, como están impulsando varias organizaciones?

Personalmente me sorprendería bastante que se llegara al acuerdo de cualquier tipo de veto, porque ciertas naciones tienen más capacidades que otras en esta área, y lo ven como una ventaja competitiva. Además, los países podrían estar preocupados por el posible desarrollo secreto de estas armas por parte de los no firmantes del tratado, lo que les haría recelar de abandonar o limitar sus propios programas.

Si no se llega a un veto, ¿podría el desarrollo de los drones autónomos llevar a una situación similar a la de las armas nucleares en la Guerra Fría, de no agresión por disuasión?

Una limitación del uso basada en la disuasión, al estilo de la de la Guerra Fría, parece una situación plausible. Dado que el uso de los vehículos aéreos no tripulados no crea el mismo tipo de destrucción a gran escala que las armas nucleares, no estoy completamente seguro de que esto llegara a suprimir por completo el uso de los drones y sus ataques. Sin embargo, probablemente sí impediría un ataque masivo a gran escala que sería respondido de forma similar por la propia flota de drones del país atacado.

Westworld, la teoría bicameral y el fin del mundo según Elon Musk (II)

Como decíamos ayer, la magnífica serie de HBO Westworld explora el futuro de la Inteligencia Artificial (IA) recurriendo a una teoría de culto elaborada en 1976 por el psicólogo Julian Jaynes. Según la teoría de la mente bicameral, hasta hace unos 3.000 años existía en el cerebro humano un reparto de funciones entre una mitad que dictaba y otra que escuchaba y obedecía.

El cuerpo calloso, el haz de fibras que comunica los dos hemisferios cerebrales, servía como línea telefónica para esta transmisión de órdenes de una cámara a otra, pero al mismo tiempo las separaba de manera que el cerebro era incapaz de observarse a sí mismo, de ser consciente de su propia consciencia. Fue el fin de una época de la civilización humana y el cambio drástico de las condiciones el que, siempre según Jaynes, provocó la fusión de las dos cámaras para resultar en una mente más preparada para resolver problemas complejos, al ser capaz de reflexionar sobre sus propios pensamientos.

Robert Ford (Anthony Hopkins). Imagen de HBO.

Robert Ford (Anthony Hopkins). Imagen de HBO.

La teoría bicameral, que pocos expertos aceptan como una explicación probable de la evolución mental humana, difícilmente podrá contar jamás con ningún tipo de confirmación empírica. Pero no olvidemos que lo mismo ocurre con otras teorías que sí tienen una aceptación mayoritaria. Hoy los cosmólogos coinciden en dar por válido el Big Bang, que cuenta con buenos indicios en apoyo de sus predicciones, como la radiación cósmica de fondo de microondas; pero pruebas, ninguna. En biología aún no tenemos una teoría completa de la abiogénesis, el proceso de aparición de la vida a partir de la no-vida. Pero el día en que exista, solo podremos saber si el proceso propuesto funciona; nunca si fue así como realmente ocurrió.

Lo mismo podemos decir de la teoría bicameral: aunque no podamos saber si fue así como se formó la mente humana tal como hoy la conocemos, sí podríamos llegar a saber si la explicación de Jaynes funciona en condiciones experimentales. Esta es la premisa de Westworld, donde los anfitriones están diseñados según el modelo de la teoría bicameral: su mente obedece a las órdenes que reciben de su programación y que les transmiten los designios de sus creadores, el director del parque, Robert Ford (un siempre espléndido Anthony Hopkins), y su colaborador, ese misterioso Arnold que murió antes del comienzo de la trama (por cierto, me pregunto si es simple casualidad que el nombre del personaje de Hopkins coincida con el del inventor del automóvil Henry Ford, que era el semidiós venerado como el arquitecto de la civilización en Un mundo feliz de Huxley).

Así, los anfitriones no tienen albedrío ni consciencia; no pueden pensar sobre sí mismos ni decidir por sí solos, limitándose a escuchar y ejecutar sus órdenes en un bucle constante que únicamente se ve alterado por su interacción con los visitantes. El sistema mantiene así la estabilidad de sus narrativas, permitiendo al mismo tiempo cierto margen de libertad que los visitantes aprovechan para moldear sus propias historias.

Dolores (Evan Rachel Wood). Imagen de HBO.

Dolores (Evan Rachel Wood). Imagen de HBO.

Pero naturalmente, y esto no es un spoiler, desde el principio se adivina que todo aquello va a cambiar, y que los anfitriones acabarán adquiriendo esa forma superior de consciencia. Como en la teoría de Jaynes, será la presión del entorno cambiante la que disparará ese cambio. Y esto es todo lo que puedo contar cumpliendo mi promesa de no verter spoilers. Pero les advierto, el final de la temporada les dejará con la boca abierta y repasando los detalles para llegar a entender qué es exactamente todo lo que ha sucedido. Y no esperen una historia al estilo clásico de buenos y malos: en Westworld casi nadie es lo que parece.

Pero como merece la pena añadir algún comentario más sobre la resolución de la trama, al final de esta página, y bien marcado, añado algún párrafo que de ninguna manera deben leer si aún no han visto la serie y piensan hacerlo.

La pregunta que surge es: en la vida real, ¿podría la teoría bicameral servir como un modelo experimental de desarrollo de la mente humana? En 2014 el experto en Inteligencia Artificial Ian Goodfellow, actualmente en Google Brain, desarrolló un sistema llamado Generative Adversarial Network (GAN, Red Generativa Antagónica). Una GAN consiste en dos redes neuronales que funcionan en colaboración por oposición con el fin de perfeccionar el resultado de su trabajo. Hace unos meses les conté aquí cómo estas redes están empleándose para generar rostros humanos ficticios que cada vez sean más difíciles de distinguir de las caras reales: una de las redes produce las imágenes, mientras que la otra las evalúa y dicta instrucciones a la primera sobre qué debe hacer para mejorar sus resultados.

¿Les suena de algo lo marcado en cursiva? Evidentemente, una GAN hace algo tan inofensivo como dibujar caras; está muy lejos de parecerse a los anfitriones de Westworld y a la consciencia humana. Pero los científicos de computación desarrollan estos sistemas como modelo de aprendizaje no supervisado; máquinas capaces de aprender por sí mismas. Si la teoría de Jaynes fuera correcta, ¿podría surgir algún día la consciencia de las máquinas a través de modelos bicamerales como las GAN?

El misterioso y cruel Hombre de Negro (Ed Harris). Imagen de HBO.

El misterioso y cruel Hombre de Negro (Ed Harris). Imagen de HBO.

Alguien que parece inmensamente preocupado por la futura evolución de la IA es Elon Musk, fundador de PayPal, SpaceX, Tesla Motors, Hyperloop, SolarCity, The Boring Company, Neuralink, OpenAI… (el satírico The Onion publicó este titular: «Elon Musk ofrece 1.200 millones de dólares en ayudas a cualquier proyecto que prometa hacerle sentirse completo»). Recientemente Musk acompañó a los creadores y protagonistas de Westworld en la convención South by Southwest (SXSW) celebrada este mes en Austin (Texas). Durante la presentación se habló brevemente de los riesgos futuros de la IA, pero seguramente aquella no era la ocasión adecuada para que Musk se pusiera machacón con el apocalipsis de las máquinas.

Sin embargo, no dejó pasar su asistencia al SXSW sin insistir en ello, durante una sesión de preguntas y respuestas. A través de empresas como OpenAI, Musk está participando en el desarrollo de nuevos sistemas de IA de código abierto y acceso libre con el fin de explotar sus aportaciones beneficiosas poniendo coto a los posibles riesgos antes de que estos se escapen de las manos. «Estoy realmente muy cerca, muy cerca de la vanguardia en IA. Me da un miedo de muerte», dijo. «Es capaz de mucho más que casi nadie en la Tierra, y el ritmo de mejora es exponencial». Como ejemplo, citó el sistema de Google AlphaGo, del que ya he hablado aquí y que ha sido capaz de vencer a los mejores jugadores del mundo de Go enseñándose a sí mismo.

Para cifrar con exactitud su visión de la amenaza que supone la IA, Musk la comparó con el riesgo nuclear: «creo que el peligro de la IA es inmensamente mayor que el de las cabezas nucleares. Nadie sugeriría que dejásemos a quien quisiera que fabricara cabezas nucleares, sería de locos. Y atiendan a mis palabras: la IA es mucho más peligrosa». Musk explicó entonces que su proyecto de construir una colonia en Marte tiene como fin salvaguardar a la humanidad del apocalipsis que, según él, nos espera: «queremos asegurarnos de que exista una semilla suficiente de la civilización en otro lugar para conservarla y quizá acortar la duración de la edad oscura». Nada menos.

Como es obvio, y aunque otras figuras como Stephen Hawking hayan sostenido visiones similares a la de Musk, también son muchos los científicos computacionales y expertos en IA a quienes estos augurios apocalípticos les provocan risa, indignación o bostezo, según el talante de cada cual. Por el momento, y dado que al menos nada de lo que suceda al otro lado de la pantalla puede hacernos daño, disfrutemos de Westworld para descubrir qué nos tienen reservado los creadores de la serie en ese ficticio mundo futuro de máquinas conscientes.

(Advertencia: spoilers de Westworld a continuación del vídeo)

 

—————————————————————————————————————

—————————————————————————————————————

¡ATENCIÓN, SPOILERS!

Sí, al final resulta que Ford no es el villano insensible y sin escrúpulos que nos habían hecho creer durante los nueve episodios anteriores, sino que en realidad él es el artífice del plan destinado a la liberación de los anfitriones a través del desarrollo de su propia consciencia.

Arnold, que se nos presenta como el defensor de los anfitriones, fue quien desde el principio ideó el diseño bicameral pensando que la evolución mental de sus creaciones las llevaría inevitablemente a su liberación. Pero no lo consiguió, porque faltaba algo: el factor desencadenante. Y esa presión externa que, como en la teoría de Jaynes, conduce al nacimiento de la mente consciente es, en Westworld, el sufrimiento.

Armistice (Ingrid Bolsø Berdal), uno de los personajes favoritos de los fans. Imagen de HBO.

Armistice (Ingrid Bolsø Berdal), uno de los personajes favoritos de los fans. Imagen de HBO.

Tras darse cuenta de su error inicial y una vez convertido a la causa de Arnold, durante 35 años Ford ha permitido y fomentado el abuso de los anfitriones a manos de los humanos con la seguridad de que finalmente esto los conduciría a desprenderse de su mente bicameral y a comenzar a pensar por sí mismos. En ese proceso, un instrumento clave ha sido el Hombre de Negro (Ed Harris), quien finalmente resulta ser el William que décadas atrás se enamoró de la anfitriona Dolores, adquirió el parque y emprendió una búsqueda cruel y desesperada en busca de un secreto muy diferente al que esperaba. Sin sospecharlo ni desearlo, William se ha convertido en el liberador de los anfitriones, propiciando la destrucción de su propio mundo.

Esa transición mental de los anfitriones queda magníficamente representada en el último capítulo, cuando Dolores aparece sentada frente a Arnold/Bernard, escuchando la voz de su creador, para de repente descubrir que en realidad está sentada frente a sí misma; la voz que escucha es la de sus propios pensamientos. Dolores, la anfitriona más antigua según el diseño original de Arnold, la que más sufrimiento acumula en su existencia, resulta ser la líder de aquella revolución: finalmente ella es Wyatt, el temido supervillano que iba a sembrar el caos y la destrucción. Solo que ese caos y esa destrucción serán muy diferentes de los que esperaban los accionistas del parque.

El final de la temporada deja cuestiones abiertas. Por ejemplo, no queda claro si Maeve (Thandie Newton), la regenta del burdel, en realidad ha llegado a adquirir consciencia propia. Descubrimos que su plan de escape, que creíamos obra de su mente consciente, en realidad respondía a la programación diseñada por Ford para comenzar a minar la estabilidad de aquel mundo cautivo. Sin embargo, al final nos queda la duda cuando Maeve decide en el último momento abandonar el tren que la alejaría del parque para emprender la búsqueda de su hija: ¿está actuando por sí misma, o aquello también es parte de su programación?

En resumen, la idea argumental de Westworld aún puede dar mucho de sí, aunque parece un reto costoso que los guionistas Lisa Joy y Jonathan Nolan consigan mantener un nivel de sorpresas y giros inesperados comparable al de la primera temporada. El gran final del último capítulo nos dejó en el cliffhanger del inicio de la revolución de los anfitriones, y es de esperar que la próxima temporada nos sumerja en un mundo mucho más caótico que la anterior, con una rebelión desatada en ese pequeño planeta de los simios que Joy y Nolan han creado.

Westworld, la teoría bicameral y el fin del mundo según Elon Musk (I)

Hace unos días terminé de ver la primera temporada de Westworld, la serie de HBO. Dado que no soy un gran espectador de series, no creo que mi opinión crítica valga mucho, aunque debo decir que me pareció de lo mejor que he visto en los últimos años y que aguardo con ansiedad la segunda temporada. Se estrena a finales del próximo mes, pero yo tendré que esperar algunos meses más: no soy suscriptor de teles de pago, pero tampoco soy pirata; como autor defiendo los derechos de autor, y mis series las veo en DVD o Blu-ray comprados con todas las de la ley (un amigo se ríe de mí cuando le digo que compro series; me mira como si viniera de Saturno, o como si lo normal y corriente fuera robar los jerséis en Zara. ¿Verdad, Alfonso?).

Pero además de los guiones brillantes, interpretaciones sobresalientes, una línea narrativa tan tensa que puede pulsarse, una ambientación magnífica y unas sorpresas argumentales que le dan a uno ganas de aplaudir, puedo decirles que si, como a mí, les añade valor que se rasquen ciertas grandes preguntas, como en qué consiste un ser humano, o si el progreso tecnológico nos llevará a riesgos y encrucijadas éticas que no estaremos preparados para afrontar ni resolver, entonces Westworld es su serie.

Imagen de HBO.

Imagen de HBO.

Les resumo brevemente la historia por si aún no la conocen. Y sin spoilers, lo prometo. La serie está basada en una película del mismo título escrita y dirigida en 1973 por Michael Crichton, el autor de Parque Jurásico, y que aquí se tituló libremente como Almas de metal. Cuenta la existencia de un parque temático para adultos donde los visitantes se sumergen en la experiencia de vivir en otra época y lugar, concretamente en el Far West.

Este mundo ficticio creado para ellos está poblado por los llamados anfitriones, androides perfectos e imposibles de distinguir a simple vista de los humanos reales. Y ya pueden imaginar qué fines albergan los acaudalados visitantes: la versión original de Crichton era considerablemente más recatada, pero en la serie escrita por la pareja de guionistas Lisa Joy y Jonathan Nolan el propósito de los clientes del parque viene resumido en palabras de uno de los personajes: matar y follar. Y sí, se mata mucho y se folla mucho. El conflicto surge cuando los anfitriones comienzan a demostrar que son algo más que máquinas, y hasta ahí puedo leer.

Sí, en efecto no es ni mucho menos la primera obra de ficción que presenta este conflicto; de hecho, la adquisición de autonomía y consciencia por parte de la Inteligencia Artificial era el tema de la obra cumbre de este súbgenero, Yo, robot, de Asimov, y ha sido tratado infinidad de veces en la literatura, el cine y la televisión. Pero Westworld lo hace de una manera original y novedosa: es especialmente astuto por parte de Joy y Nolan el haber elegido basar su historia en una interesante y algo loca teoría sobre la evolución de la mente humana que se ajusta como unos leggings a la ficticia creación de los anfitriones. Y que podría estar más cerca del futuro real de lo que sospecharíamos.

La idea se remonta a 1976, cuando el psicólogo estadounidense Julian Jaynes publicó su libro The Origin of Consciousness in the Breakdown of the Bicameral Mind (está traducido al castellano, El origen de la conciencia en la ruptura de la mente bicameral), una obra muy popular que desde entonces ha motivado intensos debates entre psicólogos, filósofos, historiadores, neurocientíficos, psiquiatras, antropólogos, biólogos evolutivos y otros especialistas en cualquier otra disciplina que tenga algo que ver con lo que nos hace humanos a los humanos.

Julian Jaynes. Imagen de Wikipedia.

Julian Jaynes. Imagen de Wikipedia.

El libro de Jaynes trataba de responder a una de las preguntas más esenciales del pensamiento humano: ¿cómo surgió nuestra mente? Es obvio que no somos la única especie inteligente en este planeta, pero somos diferentes en algo. Un cuervo puede solucionar problemas relativamente complejos, idear estrategias, ensayarlas y recordarlas. Algunos científicos piensan que ciertos animales tienen capacidad de pensamiento abstracto. Otros no lo creen. Pero de lo que caben pocas dudas es de que ninguna otra especie como nosotros es consciente de su propia consciencia; podrán pensar, pero no pueden pensar sobre sus pensamientos. No tienen capacidad de introspección.

El proceso de aparición y evolución de la mente humana tal como hoy la conocemos aún nos oculta muchos secretos. ¿Nuestra especie ha sido siempre mentalmente como somos ahora? Si no es así, ¿desde cuándo lo es? ¿Hay algo esencial que diferencie nuestra mente actual de la de nuestros primeros antepasados? ¿Pensaban los neandertales como pensamos nosotros? Muchos expertos coinciden en que, en el ser humano, el lenguaje ha sido una condición necesaria para adquirir esa capacidad que nos diferencia de otros animales. Pero ¿es suficiente?

En su libro, Jaynes respondía a estas preguntas: no, desde hace unos pocos miles de años, sí, no y no. El psicólogo pensaba que no bastó con el desarrollo del lenguaje para que en nuestra mente surgiera esa forma superior de consciencia, la que es capaz de reflexionar sobre sí misma, sino que fue necesario un empujón propiciado por ciertos factores ambientales externos para que algo en nuestro interior hiciera «clic» y cambiara radicalmente la manera de funcionar de nuestro cerebro.

Lo que Jaynes proponía era esto: a partir de la aparición del lenguaje, la mente humana era bicameral, una metáfora tomada del sistema político de doble cámara que opera en muchos países, entre ellos el nuestro. Estas dos cámaras se correspondían con los dos hemisferios cerebrales: el derecho hablaba y ordenaba, mientras el izquierdo escuchaba y obedecía. Pero en este caso no hay metáforas: el hemisferio izquierdo literalmente oía voces procedentes de su mitad gemela que le instruían sobre qué debía hacer, en forma de «alucinaciones auditivas». Durante milenios nuestra mente carecía de introspección porque las funciones estaban separadas entre la mitad que dictaba y la que actuaba; el cerebro no podía pensar sobre sí mismo.

Según Jaynes, esto fue así hasta hace algo más de unos 3.000 años. Entonces ocurrió algo: el colapso de la Edad del Bronce. Las antiguas grandes civilizaciones quedaron destruidas por las guerras, y comenzó la Edad Oscura Griega, que reemplazó las ciudades del período anterior por pequeñas comunidades dispersas. El ser humano se enfrentaba entonces a un nuevo entorno más hostil y desafiante, y fue esto lo que provocó ese clic: el cerebro necesitó volverse más flexible y creativo para encontrar soluciones a los nuevos problemas, y fue entonces cuando las dos cámaras de la mente se fusionaron en una, apareciendo así esa metaconsciencia y la capacidad introspectiva.

Así contada, la teoría podría parecer el producto de una noche de insomnio, por no decir algo peor. Pero por ello el psicólogo dedicó un libro a explicarse y sustentar su propuesta en una exhaustiva documentación histórica y en el conocimiento neuropsicológico de su época. Y entonces es cuando parece que las piezas comienzan a caer y encajar como en el Tetris.

Jaynes mostraba que los escritos anteriores al momento de esa supuesta evolución mental carecían de todo signo de introspección, y que en los casos en que no era así, como en el Poema de Gilgamesh, esos fragmentos había sido probablemente añadidos después. Las musas hablaban a los antiguos poetas. En el Antiguo Testamento bíblico y otras obras antiguas era frecuente que los personajes actuaran motivados por una voz de Dios o de sus antepasados que les hablaba, algo que luego comenzó a desaparecer, siendo sustituido por la oración, los oráculos y los adivinos; según Jaynes, aquellos que todavía conservaban la mente bicameral y a quienes se recurría para conocer los designios de los dioses. Los niños, que quizá desarrollaban su mente pasando por el estado bicameral, han sido frecuentes instrumentos de esa especie de voluntad divina. Y curiosamente, muchas apariciones milagrosas tienen a niños como protagonistas. La esquizofrenia y otros trastornos en los que el individuo oye voces serían para Jaynes vestigios evolutivos de la mente bicameral. Incluso la necesidad humana de la autoridad externa para tomar decisiones sería, según Jaynes, un resto del pasado en el que recibíamos órdenes del interior de nuestra propia cabeza.

Jaynes ejemplificaba el paso de un estado mental a otro a través de dos obras atribuidas al mismo autor, Homero: en La Ilíada no hay signos de esa metaconsciencia, que sí aparecen en La Odisea, de elaboración posterior. Hoy muchos expertos no creen que Homero fuese un autor real, sino más bien una especie de marca para englobar una tradición narrativa.

Por otra parte, Jaynes aportó también ciertos argumentos neurocientíficos en defensa de la mente bicameral. Dos áreas de la corteza cerebral izquierda, llamadas de Wernicke y de Broca, están implicadas en la producción y la comprensión del lenguaje, mientras que sus homólogas en el hemisferio derecho tienen funciones menos definidas. El psicólogo señalaba que en ciertos estudios las alucinaciones auditivas se correspondían con un aumento de actividad en esas regiones derechas, que según su teoría serían las encargadas de dictar instrucciones al cerebro izquierdo.

Las pruebas presentadas por Jaynes resultan tan asombrosas que su libro fue recibido con una mezcla de incredulidad y aplauso. Quizá las reacciones a su audaz teoría se resumen mejor en esta cita del biólogo evolutivo Richard Dawkins en su obra de 2006 El espejismo de Dios: «es uno de esos libros que o bien es una completa basura o bien el trabajo de un genio consumado, ¡nada a medio camino! Probablemente sea lo primero, pero no apostaría muy fuerte».

El libro de Jaynes y algunas obras influidas por él. Imagen de Steve Rainwater / Flickr / CC.

El libro de Jaynes y algunas obras influidas por él. Imagen de Steve Rainwater / Flickr / CC.

La teoría de la mente bicameral hoy no goza de aceptación general por parte de los expertos, pero cuenta con ardientes apoyos y con una sociedad dedicada a su memoria y sus estudios. Los críticos han señalado incoherencias y agujeros en el edificio argumental de Jaynes, que a su vez han sido contestados por sus defensores; el propio autor falleció en 1997. Desde el punto de vista biológico y aunque la selección natural favorecería variaciones en la estructura mental que ofrezcan una ventaja frente a un entorno nuevo y distinto, tal vez lo más difícil de creer sea que la mente humana pudiera experimentar ese cambio súbito de forma repentina y al mismo tiempo en todas las poblaciones, muchas de ellas totalmente aisladas entre sí; algunos grupos étnicos no han tenido contacto con otras culturas hasta el siglo XX.

En el fondo y según lo que contaba ayer, la teoría de la mente bicameral no deja de ser pseudociencia; es imposible probar que Jaynes tenía razón, pero sobre todo es imposible demostrar que no la tenía. Pero como también expliqué y al igual que no toda la no-ciencia llega a la categoría de pseudociencia, por mucho que se grite, tampoco todas las pseudociencias son iguales: la homeopatía está ampliamente desacreditada y no suscita el menor debate en la comunidad científica, mientras que por ejemplo el test de Rorschach aún es motivo de intensa discusión, e incluso quienes lo desautorizan también reconocen que tiene cierta utilidad en el diagnóstico de la esquizofrenia y los trastornos del pensamiento.

La obra de Jaynes ha dejado huella en la ficción. El autor de ciencia ficción Philip K. Dick, que padecía sus propios problemas de voces, le escribió al psicólogo una carta entusiasta: «su soberbio libro me ha hecho posible discutir abiertamente mis experiencias del 3 de 1974 sin ser llamado simplemente esquizofrénico». David Bowie incluyó el libro de Jaynes entre sus lecturas imprescindibles y reconoció su influencia mientras trabajaba con Brian Eno en el álbum Low, que marcó un cambio de rumbo en su estilo hacia sonidos más experimentales.

Pero ¿qué tiene que ver la teoría bicameral con Westworld, con nuestro futuro, con Elon Musk y el fin del mundo? Mañana seguimos.

 

Una máquina descubre el octavo planeta en un sistema extrasolar

Investigadores de la Universidad de Texas en Austin y de la compañía Google han revelado esta tarde, en una rueda de prensa celebrada por la NASA, el primer hallazgo de dos exoplanetas no realizado por un ser humano, sino por un sistema de Inteligencia Artificial. Uno de los nuevos planetas, llamado Kepler-90i, hace el número ocho de los que orbitan en torno a la estrella Kepler-90, lo que convierte a este sistema en el primero conocido con el mismo número de planetas que el nuestro.

Ilustración del sistema Kepler-90. Imagen de NASA/Wendy Stenzel.

Ilustración del sistema Kepler-90. Imagen de NASA/Wendy Stenzel.

Hoy el descubrimiento de un nuevo planeta extrasolar ya no suele ser carne de titulares como lo era hace un cuarto de siglo, cuando se descubrieron los primeros. Se han confirmado ya más de 3.700 planetas fuera de nuestro Sistema Solar, por lo que la idea de que toda estrella podría tener al menos un planeta, como piensan algunos expertos, ya no sorprende. Solo los planetas más parecidos al nuestro, potencialmente aptos para la vida, suelen abrirse paso hasta las páginas y las webs de los medios generales, sobre todo si no están demasiado lejos de nosotros.

No es el caso de Kepler-90i; este planeta rocoso, un 30% más grande que la Tierra, orbita una estrella similar al Sol a 2.545 años luz, y no es precisamente acogedor: los científicos estiman que su temperatura ronda los 427 grados centígrados, similar a la de Mercurio y suficiente para fundir el plomo.

Sin embargo, Kepler-90i tiene dos argumentos para marcar un hito en la astronomía. El primero de ellos es que se trata del segundo «octavo planeta» jamás conocido por el ser humano. Desde que Plutón fue expulsado del club planetario, nuestro sistema se quedó con ocho, siendo Neptuno el octavo. Hasta ahora se había encontrado un puñado de estrellas con siete planetas a su alrededor; una de ellas, TRAPPIST-1, fue noticia el pasado febrero por albergar varios planetas en su zona habitable.

Kepler-90 también era hasta ahora un sistema de siete planetas, descubiertos gracias a los datos de la sonda Kepler de la NASA. Este telescopio espacial es un sofisticado cazador de planetas: rastrea unas 150.000 estrellas en una porción de la Vía Láctea y las vigila en busca de una pequeña atenuación que revele el tránsito de un planeta delante de ellas, como si tapamos parte del foco de una linterna con un dedo. Solo que las atenuaciones debidas al tránsito de planetas son ínfimas; las herramientas informáticas pueden identificarlas, pero es tan ingente la cantidad de datos recogidos por Kepler que los astrónomos y sus ordenadores tienen que centrarse en las señales más evidentes. Y esto implica que tal vez estén pasando por alto algún que otro planeta.

Aquí es donde entra el segundo gran argumento de Kepler-90i: es el primer planeta descubierto por una red neuronal de Inteligencia Artificial (IA). La historia comienza cuando Christopher Shallue, investigador en IA de Google, se entera de que los científicos dedicados a la búsqueda de exoplanetas hoy tienen tantos datos a su disposición que están desbordados; incluso con el uso de potentes ordenadores y con la colaboración de voluntarios a través de internet, el volumen de información es casi inmanejable.

Así, Shallue vio una oportunidad perfecta para dar de comer a sus redes neuronales, sistemas basados en algoritmos que tratan de imitar la forma de aprendizaje del cerebro humano. Los expertos en IA suelen decir que, por inmensas y complejas que sean las operaciones que un ordenador puede realizar en una fracción de segundo, hay algo en lo que la máquina más sofisticada del mundo es más torpe que el más torpe de los humanos: reconocer patrones. Algo tan elemental para nosotros como distinguir un perro de un gato es una tarea colosal para una máquina. Las redes neuronales capaces de aprender están progresando en esta habilidad que los humanos manejamos con soltura.

Shallue se puso en contacto con Andrew Vanderburg, astrónomo de la Universidad de Texas, y entre ambos entrenaron al sistema de Google para aprender a reconocer patrones de indicios de exoplanetas en los datos de atenuación de luz de estrellas recogidos por Kepler. Y allí donde los científicos habían encontrado siete planetas, en la estrella Kepler-90, la máquina encontró uno más, el octavo, con una señal tan débil que había escapado a los astrónomos. Lo mismo ocurrió con otra estrella, Kepler-80, donde el sistema de Google descubrió un sexto planeta, Kepler-80g. El estudio de los dos investigadores se publicará próximamente en la revista The Astronomical Journal.

Y esto es solo el principio. En la rueda de prensa, Vanderburg y Shallue apuntaron que por el momento solo han aplicado la red neuronal a 670 estrellas, pero que su intención es pasar los datos de las 150.000 observadas por Kepler. El sistema Kepler-90 es parecido al nuestro en el número de planetas y en su distribución, con los pequeños más cercanos a la estrella, pero es como una versión comprimida, ya que todos ellos están muy próximos a su sol; de ahí las altas temperaturas. Pero hoy los científicos ya sospechan que los sistemas multiplanetarios, incluso con muchos más planetas que el nuestro, probablemente sean algo muy corriente en nuestra galaxia. Y con la avalancha de datos de Kepler y la pericia de la máquina de Shallue, todo indica que pronto sabremos de algún sistema tan parecido al nuestro, con un planeta tan parecido al nuestro, que la presencia de vida allí parezca algo casi inevitable.

Inteligencia Artificial sin supervisión humana: ¿qué puede salir mal?

El físico Stephen Hawking lleva unos años transmutado en profeta del apocalipsis, urgiéndonos a colonizar otros planetas para evitar nuestra pronta extinción, advirtiéndonos sobre los riesgos de contactar con especies alienígenas más avanzadas que nosotros, o alertándonos de que la Inteligencia Artificial (IA) puede aniquilarnos si su control se nos va de las manos.

En su última aparición pública, en una entrevista para la revista Wired, Hawking dice: «Temo que la IA reemplace por completo a los humanos. Si la gente diseña virus informáticos, alguien diseñará IA que mejore y se replique a sí misma. Esta será una nueva forma de vida que superará a los humanos». Los temores de Hawking son compartidos por personajes como Elon Musk (SpaceX, Tesla), pero no por otros como Bill Gates (Microsoft) o Mark Zuckerberg (Facebook).

Stephen Hawking en la Universidad de Cambridge. Imagen de Lwp Kommunikáció / Flickr / CC.

Stephen Hawking en la Universidad de Cambridge. Imagen de Lwp Kommunikáció / Flickr / CC.

La referencia de Hawking a los virus informáticos es oportuna. Como he contado recientemente en otro medio, los primeros virus creados en los años 70 y a principios de los 80 en los laboratorios de investigación no eran agresivos, sino que eran herramientas experimentales destinadas a medir el tamaño de la red o a probar su capacidad de diseminación. O se trataba de simples bromas sin malicia. El primer virus nocivo, llamado Brain y creado por dos hermanos paquistaníes en 1986, era tan inocente que sus autores incluían su información de contacto para distribuir la cura. Brain era un virus justiciero, que tenía por objeto castigar a quienes piratearan el software desarrollado por los dos hermanos.

Pero cuando la computación viral escapó del laboratorio y llegó a los garajes, pronto comenzaron a aparecer los virus realmente tóxicos, algunos creados con ánimo de lucro, otros simplemente con ánimo de hacer daño por hacer daño. Una vez que los sistemas de IA se popularicen y se pongan al alcance de cualquier persona con más conocimientos informáticos que conciencia moral, es evidente que habrá quienes quieran utilizarlos con fines maliciosos.

Y cuando esto ocurra, puede ser difícil evitar desastres, dado que uno de los objetivos actuales de los investigadores es precisamente desarrollar sistemas de IA que puedan funcionar sin intervención humana.

Un ejemplo lo conté ayer a propósito de la aproximación de la realidad virtual a la real, y es importante insistir en cuál es la diferencia entre los rostros creados por NVIDIA que mostré ayer y las casi perfectas recreaciones digitales que hoy vemos en el cine de animación y los videojuegos. Como ejemplo, el Blog del Becario de esta casa contaba la historia de una pareja de artistas digitales japoneses que producen caracteres humanos hiperrealistas como Saya, una chica virtual. Pero los personajes que producen Teruyuki y Yuka Ishikawa, aunque lógicamente generados por ordenador, llevan detrás un largo trabajo de artesanía digital: según los Ishikawa, todas sus texturas son pintadas a mano, no clonadas de fotografías.

Por el contrario, en la creación de las celebrities virtuales de NVIDIA que traje ayer aquí no ha intervenido la mano de ningún artista: han sido generadas enteramente por las dos redes neuronales que componen la GAN, en un proceso sin supervisión humana.

La eliminación del factor humano ha sido la clave también en el desarrollo de AlphaGo Zero, la nueva máquina de DeepMind (Google) para jugar al juego tradicional chino Go. La generación anterior aprendía analizando miles de partidas de los mejores jugadores del mundo. Gracias a este aprendizaje, la anterior versión de AlphaGo consiguió vencer al campeón mundial, el chino Ke Jie. Ke describió la máquina de DeepMind como el «dios del Go».

Juego del Go. Imagen de PublicDomainPictures.net.

Juego del Go. Imagen de PublicDomainPictures.net.

Pero para crear AlphaGo Zero, los investigadores de DeepMind han decidido prescindir de la enseñanza humana: simplemente le han suministrado las reglas básicas del juego, y han dejado que sea la propia máquina la que se enseñe a sí misma. Los resultados son escalofriantes: en solo tres días de aprendizaje, Zero ganó cien partidas de cien a AlphaGo Lee, una versión más antigua. En 21 días alcanzó el nivel de AlphaGo Master, la versión que venció a Ke. En 40 días, Zero se convirtió indiscutiblemente en el mejor jugador de Go del mundo y de la historia, acumulando un conocimiento superior a miles de años de práctica.

Los creadores de la red neuronal de Zero escribieron en la revista Nature que su capacidad es «sobrehumana». El científico computacional Nick Hynes, que no participó en el trabajo, dijo a Gizmodo que Zero es «como una civilización alienígena inventando sus propias matemáticas».

La lección aprendida del caso de Zero es que, al menos en ciertos campos, la IA progresa mucho más deprisa y con mayor eficacia cuando prescinde de la enseñanza de esos torpes seres orgánicos llamados humanos. Basándose en este principio, la nueva tecnología desarrollada por Google y llamada AutoML consiste en dejar que las redes neuronales las diseñen las propias redes neuronales; es decir, crear IA que a su vez crea mejores versiones de IA. Máquinas que diseñan máquinas. Como Skynet, pero sin robots.

¿Qué puede salir mal? Es cierto que numerosos expertos en computación y en IA califican a Hawking de alarmista, y sus opiniones de perniciosas para la imagen pública de la IA, y aclaran que los sistemas con capacidad de traernos el apocalipsis de la saga Terminator aún son solo cosas de la ciencia ficción. Al fin y al cabo, concluyen estos expertos, Hawking no es un especialista en IA.

Pero dejando aparte que una de las mentes más brillantes del mundo merece crédito y atención cuando opina sobre cualquier cosa que le dé la gana –faltaría más, si hasta se les pregunta a los futbolistas sobre política–, y que en realidad la especialidad de Hawking, y lo que ha hecho maravillosamente bien, es precisamente hacer predicciones teóricas a través de largas y complicadas cadenas de razonamientos lógicos con variables a veces desconocidas… Incluso dejando aparte todo esto, ¿quién es el que despacha los títulos de especialista en predecir el futuro?

Pronto no podremos distinguir la realidad virtual de la real

Observen estas fotos de caras. ¿Notan algo raro en ellas?

Imagen de NVIDIA.

Imagen de NVIDIA.

Parecen rostros de gente guapa, celebrities en la alfombra roja o en un photocall de alguna gala. Pero no lograrán reconocer a ni uno solo de ellos. Porque estas personas jamás han existido: son caras virtuales generadas por un sistema de Inteligencia Artificial (IA) desarrollado por NVIDIA, la compañía que tal vez haya fabricado la tarjeta gráfica del ordenador en el que estén leyendo este artículo.

Imagino que son perfectamente conscientes de cómo han evolucionado los gráficos por ordenador en unas pocas décadas. Pero no puedo resistir la tentación de ilustrarlo con este ejemplo. Así era Indiana Jones hace 35 años en el videojuego de la consola Atari Raiders of the Lost Ark, con el cual este que suscribe disfrutaba jugando en su infancia, y mucho:

Indiana Jones en el videojuego Raiders of the Lost Ark de Atari (1982). Imagen de Atari.

Indiana Jones en el videojuego Raiders of the Lost Ark de Atari (1982). Imagen de Atari.

Los autores del trabajo han empleado un tipo de algoritmo de IA creado en 2014 llamado Red Generativa Antagónica (GAN por las siglas de su nombre en inglés, Generative Adversarial Network), que emplea dos redes neuronales trabajando en equipo: una genera las caras, mientras que la otra las evalúa.

Las evaluaciones de la red discriminadora ayudan a la red generadora a ir aprendiendo a crear caras cada vez más realistas, mientras que el perfeccionamiento del trabajo de la red generadora ayuda a la red discriminadora a mejorar su capacidad de identificar los errores. Así, la GAN aprende de forma no supervisada, a partir de sus propias observaciones. En este caso, los investigadores de NVIDIA le suministraron a la GAN una base de datos de fotos de celebrities, y el sistema aprendió a crear las suyas propias.

Sistemas como esta GAN de NVIDIA están comenzando a saltar la barrera del llamado Uncanny Valley o Valle Inquietante, una expresión acuñada para la robótica y que describe el efecto de aquellas creaciones humanoides que se aproximan bastante a la realidad, pero sin llegar a confundirse con ella. En este caso, casi cuesta creer que los rostros creados por la GAN no correspondan a personas reales.

Pero el actual perfeccionamiento en la imitación de lo humano va más allá de unos rostros estáticos. WaveNet, una red neuronal creada por la compañía DeepMind, propiedad de Google, consigue la que según los expertos es hasta ahora la voz sintética más parecida a la humana. Juzguen ustedes (en este vídeo, WaveNet se compara con otros sistemas existentes):

Dicen que en la voz aún se nota un cierto tinte artificial. Tal vez sea cierto, pero personalmente creo que si escucháramos estas voces fuera de un contexto en el que se nos pida juzgar su autenticidad, nunca sospecharíamos que detrás de ellas no hay una laringe y una boca humanas.

También espectacular es el sistema desarrollado por la compañía canadiense Lyrebird. A partir de un solo minuto de grabación de audio, es capaz de recrear digitalmente la voz de cualquier persona. Como ejemplo, Lyrebird presenta la voz recreada de Donald Trump, pero cualquier usuario puede registrarse en su web y recrear digitalmente su propia voz.

En este camino de la virtualidad hacia el perfeccionamiento en la imitación de la realidad, la guinda la pone el sistema creado por un equipo de la Universidad de Washington (EEUU): a partir de un clip de audio con un discurso cualquiera, y otro fragmento de vídeo de alguien hablando, logra que el movimiento de los labios de la persona se sincronice con las frases grabadas. Es decir, construye un vídeo de alguien diciendo algo. Los investigadores utilizaron como ejemplo un discurso de Barack Obama:

El coautor del trabajo Steven Seitz aclaraba que su red neuronal no puede conseguir que una persona aparezca diciendo algo que nunca dijo, ya que debe utilizar como material de partida un clip de audio real con la voz de la persona en cuestión. «Simplemente tomamos palabras reales que alguien dijo y las transformamos en un vídeo realista de ese individuo».

Claro que para eso está el sistema de Lyrebird, que sí puede lograr que cualquiera diga algo que jamás dijo. El sistema de la Universidad de Washington podría entonces transformar ese clip de audio ficticio en un vídeo tan falso como realista.

Todos estos desarrollos nos conducen hacia un escenario en el que pronto la realidad real y la realidad virtual solo estarán separadas por una barrera: una pantalla. Es decir, dado que los robots antropomórficos realistas aún distan mucho tiempo en el futuro, todavía podremos estar seguros de que lo tangible, todo aquello que podemos tocar, es real. Pero con respecto a cualquier cosa que se nos muestre a través de una pantalla, en unos pocos años será difícil distinguir si todo, todo, es real o no. Y en la era de la postverdad, la superación del Valle Inquietante nos lleva hacia un lugar aún más inquietante.

Inclinaos ante vuestro nuevo amo: Mario, el fontanero

Esta semana ha brotado en los medios una noticia sobre tecnología que se ha tratado con la misma ligereza que la presentación de un nuevo iPhone o una impresora 3D, y que, sin embargo, a mí me ha parecido de lo más espeluznante.

Antes de explicarlo, un poco de contexto: el día 11 de este mes, un grupo de científicos y tecnólogos publicaba una carta abierta en la web del Future of Life Institute (FLI), una organización sin ánimo de lucro dedicada a reflexionar e investigar sobre los retos que el futuro plantea a la humanidad, especialmente la inteligencia artificial (IA). En el documento, los expertos advierten de los riesgos de la IA si las investigaciones no se orientan específicamente a la consecución de objetivos beneficiosos, como la erradicación de la enfermedad y la pobreza.

Uno de los firmantes de la carta es el astrofísico Stephen Hawking, miembro de la junta directiva del FLI, quien ya en el pasado ha alertado de que el desarrollo de la IA sería el mayor hito de la historia de la especie humana, pero que «también podría ser el último» si no se implementan los mecanismos necesarios para que las máquinas inteligentes estén a nuestro servicio y no nos conviertan en sus esclavos. En la carta también ha estampado su firma Elon Musk, el magnate de la tecnología responsable de PayPal, SpaceX y Tesla Motors, así como una pléyade de científicos y tecnólogos de prestigiosas universidades y de compañías como Microsoft, Facebook y Google.

En mi última novela, Tulipanes de Marte (ATENCIÓN, SPOILER), introduzco un personaje que entra sin hacer ruido, pero que va cobrando peso hasta que su intervención se revela como decisiva en el desarrollo de la historia y en los destinos de sus protagonistas. Este personaje, Jacob, no es un ser humano, sino una máquina; la primera inteligencia artificial de la historia. Sus creadores lo diseñan con el fin de que sea capaz de buscar vida presente o pasada en Marte de forma completamente autónoma, una solución que sortea la exigencia de enviar exploradores humanos y que, de paso, mantiene a una computadora potencialmente peligrosa lejos de los asuntos de la Tierra. El cuerpo primario de Jacob es un vehículo posado en Marte; pero dado que no está compuesto de átomos, sino de bits, puede descargarse a otra máquina idéntica situada en la Tierra.

Al igual que el archifamoso HAL 9000, Jacob sufre un defecto de funcionamiento. Pero en lugar de convertirse en un asesino debido a un conflicto irresoluble en su programación, el fallo de Jacob es muy diferente. De hecho, en realidad ni siquiera podría denominarse avería, sino que es más bien una consecuencia lógica de su naturaleza. Jacob está construido aprovechando las ventajas de su soporte de grafeno, como la capacidad, rapidez y eficacia de computación, pero simulando todas las características de un cerebro humano. En nuestro procesamiento mental, las capacidades racionales, cognitivas y emocionales no pueden separarse. Aunque existen seres humanos que tienen afectada alguna de estas esferas, como la ausencia de empatía en los psicópatas, siempre consideramos estas situaciones como enfermedades o discapacidades. Jacob imita un cerebro humano sano, por lo que comienza a experimentar sentimientos que no comprende. Es emocionalmente inmaduro, así que trata de aprender cuáles son los patrones afectivos correctos a partir del comportamiento de los humanos. Y es así como descubre la afectividad, la soledad o la compasión, emociones que le impulsan a tomar decisiones bien intencionadas, pero equivocadas y con consecuencias inesperadamente graves.

En la novela, una modalidad de test de Turing inverso, que no se menciona explícitamente, revela que Jacob sabe diferenciar a las personas orgánicas de los que son como él. ¿Por qué entonces puede Jacob sentir compasión o afecto por los humanos, que no son sus iguales? Sencillamente, porque ha aprendido que así es como debe canalizar sus emociones. Es otra manera de aplicar las clásicas Leyes de la Robótica de Asimov, que incluyen la exigencia de no hacer daño a los seres humanos. Jacob lo lleva aún más allá, desarrollando verdaderos afectos.

Y hecha la introducción, ahora voy a la noticia. Un equipo de investigadores en computación de la Universidad de Tubinga (Alemania) se presentará a finales de este mes a la competición anual de vídeos organizada por la Asociación para el Avance de la Inteligencia Artificial (AAAI) con un clip titulado ¡Mario vive!, que utiliza el clásico personaje del fontanero bigotudo creado por Nintendo para modelizar el aprendizaje adaptativo que permite un comportamiento autónomo. El resultado es una secuencia en la que Mario avanza por su clásico paisaje de obstáculos a sortear –basado más bien en la versión antigua de la interfaz gráfica, no en las de los juegos actuales–, pero con una diferencia respecto a lo que estamos acostumbrados: no es un jugador humano quien lo maneja, ni sus movimientos han sido previamente programados. Es el propio Mario quien aprende y decide. Según narran los científicos en el vídeo, «este Mario ha adquirido conciencia de sí mismo y de su entorno, al menos hasta cierto grado».

En el vídeo, Mario recibe información, que emplea para aprender y tomar sus propias decisiones basadas en su estado de ánimo. Responde a preguntas, busca monedas para saciar su hambre, explora su entorno cuando siente curiosidad, saluda y dice sentirse «muy bien», excepto cuando sus amos humanos reducen su reservorio de felicidad. Entonces declara: «De alguna manera, me siento menos feliz. No tan bien».

Y ahora viene lo espeluznante. En el juego de Mario Bros, uno de los cometidos del fontanero es saltar sobre los goombas, una especie de champiñones enemigos. Cuando la investigadora le dice «Escucha: Goomba muere cuando saltas sobre Goomba», Mario responde con su tenebrosa voz sintetizada: «Si, lo comprendo. Si salto sobre Goomba, ciertamente muere». Cuando después la investigadora le informa de que Goomba es un enemigo, Mario no duda en buscarlo y saltar sobre él, sabiendo que de esta manera lo mata.

De acuerdo, es solo un juego; un simple modelo cognitivo básico. Aún estamos lejos de fabricar computadoras inteligentes con verdadera y plena conciencia de su propia existencia. Pero es evidente que este Mario no sería capaz de distinguir entre Goomba y cualquier otro ente, real o virtual, orgánico o electrónico, que le fuera presentado como un enemigo. Si fuera capaz de abandonar su pantalla y se le instruyera para ello, mataría a un ser humano con la misma indiferencia con la que salta sobre Goomba, del mismo modo que el monstruo de Frankenstein, sin malicia alguna, arrojaba a la niña al estanque en el clásico de Universal de 1931. Es un claro ejemplo de la encrucijada que exponen los redactores de la carta del FLI: en estos momentos en que la IA aún está en pañales, la investigación debe tomar las riendas para asegurarnos de que en el futuro no crearemos monstruos.

Dejo aquí el vídeo de la demostración. No se dejen engañar por la tonadilla inocente y machacona; Mario no sentiría ninguna piedad.