Entradas etiquetadas como ‘computación’

Inteligencia Artificial sin supervisión humana: ¿qué puede salir mal?

El físico Stephen Hawking lleva unos años transmutado en profeta del apocalipsis, urgiéndonos a colonizar otros planetas para evitar nuestra pronta extinción, advirtiéndonos sobre los riesgos de contactar con especies alienígenas más avanzadas que nosotros, o alertándonos de que la Inteligencia Artificial (IA) puede aniquilarnos si su control se nos va de las manos.

En su última aparición pública, en una entrevista para la revista Wired, Hawking dice: «Temo que la IA reemplace por completo a los humanos. Si la gente diseña virus informáticos, alguien diseñará IA que mejore y se replique a sí misma. Esta será una nueva forma de vida que superará a los humanos». Los temores de Hawking son compartidos por personajes como Elon Musk (SpaceX, Tesla), pero no por otros como Bill Gates (Microsoft) o Mark Zuckerberg (Facebook).

Stephen Hawking en la Universidad de Cambridge. Imagen de Lwp Kommunikáció / Flickr / CC.

Stephen Hawking en la Universidad de Cambridge. Imagen de Lwp Kommunikáció / Flickr / CC.

La referencia de Hawking a los virus informáticos es oportuna. Como he contado recientemente en otro medio, los primeros virus creados en los años 70 y a principios de los 80 en los laboratorios de investigación no eran agresivos, sino que eran herramientas experimentales destinadas a medir el tamaño de la red o a probar su capacidad de diseminación. O se trataba de simples bromas sin malicia. El primer virus nocivo, llamado Brain y creado por dos hermanos paquistaníes en 1986, era tan inocente que sus autores incluían su información de contacto para distribuir la cura. Brain era un virus justiciero, que tenía por objeto castigar a quienes piratearan el software desarrollado por los dos hermanos.

Pero cuando la computación viral escapó del laboratorio y llegó a los garajes, pronto comenzaron a aparecer los virus realmente tóxicos, algunos creados con ánimo de lucro, otros simplemente con ánimo de hacer daño por hacer daño. Una vez que los sistemas de IA se popularicen y se pongan al alcance de cualquier persona con más conocimientos informáticos que conciencia moral, es evidente que habrá quienes quieran utilizarlos con fines maliciosos.

Y cuando esto ocurra, puede ser difícil evitar desastres, dado que uno de los objetivos actuales de los investigadores es precisamente desarrollar sistemas de IA que puedan funcionar sin intervención humana.

Un ejemplo lo conté ayer a propósito de la aproximación de la realidad virtual a la real, y es importante insistir en cuál es la diferencia entre los rostros creados por NVIDIA que mostré ayer y las casi perfectas recreaciones digitales que hoy vemos en el cine de animación y los videojuegos. Como ejemplo, el Blog del Becario de esta casa contaba la historia de una pareja de artistas digitales japoneses que producen caracteres humanos hiperrealistas como Saya, una chica virtual. Pero los personajes que producen Teruyuki y Yuka Ishikawa, aunque lógicamente generados por ordenador, llevan detrás un largo trabajo de artesanía digital: según los Ishikawa, todas sus texturas son pintadas a mano, no clonadas de fotografías.

Por el contrario, en la creación de las celebrities virtuales de NVIDIA que traje ayer aquí no ha intervenido la mano de ningún artista: han sido generadas enteramente por las dos redes neuronales que componen la GAN, en un proceso sin supervisión humana.

La eliminación del factor humano ha sido la clave también en el desarrollo de AlphaGo Zero, la nueva máquina de DeepMind (Google) para jugar al juego tradicional chino Go. La generación anterior aprendía analizando miles de partidas de los mejores jugadores del mundo. Gracias a este aprendizaje, la anterior versión de AlphaGo consiguió vencer al campeón mundial, el chino Ke Jie. Ke describió la máquina de DeepMind como el «dios del Go».

Juego del Go. Imagen de PublicDomainPictures.net.

Juego del Go. Imagen de PublicDomainPictures.net.

Pero para crear AlphaGo Zero, los investigadores de DeepMind han decidido prescindir de la enseñanza humana: simplemente le han suministrado las reglas básicas del juego, y han dejado que sea la propia máquina la que se enseñe a sí misma. Los resultados son escalofriantes: en solo tres días de aprendizaje, Zero ganó cien partidas de cien a AlphaGo Lee, una versión más antigua. En 21 días alcanzó el nivel de AlphaGo Master, la versión que venció a Ke. En 40 días, Zero se convirtió indiscutiblemente en el mejor jugador de Go del mundo y de la historia, acumulando un conocimiento superior a miles de años de práctica.

Los creadores de la red neuronal de Zero escribieron en la revista Nature que su capacidad es «sobrehumana». El científico computacional Nick Hynes, que no participó en el trabajo, dijo a Gizmodo que Zero es «como una civilización alienígena inventando sus propias matemáticas».

La lección aprendida del caso de Zero es que, al menos en ciertos campos, la IA progresa mucho más deprisa y con mayor eficacia cuando prescinde de la enseñanza de esos torpes seres orgánicos llamados humanos. Basándose en este principio, la nueva tecnología desarrollada por Google y llamada AutoML consiste en dejar que las redes neuronales las diseñen las propias redes neuronales; es decir, crear IA que a su vez crea mejores versiones de IA. Máquinas que diseñan máquinas. Como Skynet, pero sin robots.

¿Qué puede salir mal? Es cierto que numerosos expertos en computación y en IA califican a Hawking de alarmista, y sus opiniones de perniciosas para la imagen pública de la IA, y aclaran que los sistemas con capacidad de traernos el apocalipsis de la saga Terminator aún son solo cosas de la ciencia ficción. Al fin y al cabo, concluyen estos expertos, Hawking no es un especialista en IA.

Pero dejando aparte que una de las mentes más brillantes del mundo merece crédito y atención cuando opina sobre cualquier cosa que le dé la gana –faltaría más, si hasta se les pregunta a los futbolistas sobre política–, y que en realidad la especialidad de Hawking, y lo que ha hecho maravillosamente bien, es precisamente hacer predicciones teóricas a través de largas y complicadas cadenas de razonamientos lógicos con variables a veces desconocidas… Incluso dejando aparte todo esto, ¿quién es el que despacha los títulos de especialista en predecir el futuro?

Ada Lovelace no fue la primera programadora, pero vio el futuro de las computadoras

No crean todo lo que lean por ahí. Internet es un medio fantástico de difusión de información, pero también puede serlo de desinformación. Y cuando una versión de una historia cuaja y se copia y recopia en miles de webs, es muy difícil llegar a derribarla, por muy equivocada que esté.

Detalle del retrato de Ada Lovelace pintado por Margaret Carpenter en 1836. Imagen de Wikipedia.

Detalle del retrato de Ada Lovelace pintado por Margaret Carpenter en 1836. Imagen de Wikipedia.

Hace unos días el historiador de la computación Doron Swade me escribía en un correo: «Si puedes corregir las innumerables equivocaciones que abundan sobre la reputación de Lovelace, habrás hecho más que ningún otro periodista con el que haya tenido el placer de relacionarme». ¿A qué se refería Swade? A esto: «Si como periodista levantas alguna duda sobre la proclama de la primera programadora, no digamos si la rebates, habrás hecho más que nadie que conozco con proyección pública para realinear las pruebas históricas con la percepción pública, y te deseo suerte en ello».

Ada Lovelace, de cuyo nacimiento hoy se cumplen 200 años, fue la única hija legítima de Lord Byron, un tipo tan agraciado por su talento poético como desgraciado en su vida amorosa. Es curiosa la riqueza del castellano cuando una palabra puede significar algo y su contrario. En el caso de «desgraciado», el diccionario recoge dos significados contrapuestos: el que padece desgracia, o el que la provoca a otros. Byron repartió mucha desgracia amorosa y, con ella, dejó por ahí un número de hijos que ni siquiera se conoce con exactitud. Solo una vez se casó, con Annabella Milbanke, y de este matrimonio nació una niña, Ada. Byron y Annabella rompieron cuando la niña solo tenía un mes.

Ada se crió con sus abuelos y con su, al parecer, poco afectuosa madre, que se preocupó de que aprendiera matemáticas y lógica para evitar que sufriera los delirios de su padre. Desde pequeña, la futura condesa de Lovelace destacó por su inteligencia y por su interés en los números, que la llevarían a relacionarse con Charles Babbage, el creador de las primeras calculadoras mecánicas; un trabajo por el que Babbage suele recibir el título de padre de la computación.

Ada se encargó de traducir al inglés un artículo que resumía una conferencia pronunciada por Babbage en Italia. Al final del texto, añadió unas extensas notas que incluían un algoritmo que permitiría a la máquina calcular los números de Bernoulli, una serie de fracciones con diversas aplicaciones matemáticas. Y es este algoritmo el que ha servido para promocionar mundialmente a Ada Lovelace como la autora del primer programa informático de la historia, un título que suele acompañar a su nombre en innumerables reseñas biográficas.

No se trata de que aquel algoritmo no pueda definirse exactamente como un programa informático. Es evidente que aún quedaba un siglo por delante hasta la existencia de verdaderas computadoras que trabajaran con programas tal como hoy los entendemos. Pero aquel algoritmo era una descripción paso a paso de los cálculos que realizaría la máquina, por lo cual los expertos reconocen en aquel trabajo el primer precursor de la programación.

El problema es que, según parece, no fue el trabajo de Lovelace, sino de Babbage. Durante años, los expertos han discutido hasta qué punto aquellas notas escritas por Ada fueron realmente producto de su mente o fueron más o menos dirigidas por Babbage. Si abren la página de la Wikipedia sobre Ada Lovelace en inglés (la entrada en castellano no recoge la controversia), comprobarán que existen versiones contradictorias. Pero en general, los historiadores de la computación favorecían la versión de que Babbage era quien mejor conocía la máquina que él mismo había ideado, y que los primeros programas fueron obra suya. En palabras de Swade: «La idea de que Babbage inventó una computadora y no sabía que podía programarse es de risa».

A esto se añaden los nuevos datos aportados ahora por Swade en el simposio celebrado esta semana en Oxford con motivo del bicentenario de Ada Lovelace. Según me contaba por email antes del simposio, tiene las pruebas documentales de 24 programas creados por Babbage seis o siete años antes de las famosas notas de Lovelace, y ha rastreado en ellos la procedencia original de cada uno de los rasgos que aparecen en el programa de los números de Bernoulli del escrito de Ada; lo que parece zanjar definitivamente el debate. He explicado los detalles en este reportaje.

Queda una cuestión por resolver, y es que según parece los programas no están escritos de puño y letra por Babbage. Sin embargo, Swade apunta que el matemático solía emplear escribientes y dibujantes, y que de hecho gran parte del material por el que es reconocido tampoco corresponde a su escritura. La posibilidad de que estos primeros programas fueran escritos por Lovelace queda descartada, según Swade, por otras pruebas indirectas: en primer lugar, de ser así habría correspondencia al respecto entre ambos, que no existe. Y tal vez más importante, de las cartas que Babbage y Lovelace intercambiaron más tarde, en la época de las notas, se deduce que por entonces Ada solo estaba comenzando a comprender los fundamentos de la máquina, lo que no cuadraría con el hecho de que hubiera escrito programas para ella varios años antes.

Pese a todo lo anterior, Swade quiere dejar claro que no pretende de ningún modo desmontar la figura de Ada Lovelace, sino solo el mito: «El propósito de mi derribo de la ficción de la primera programadora no es desacreditar a Lovelace; ella nunca hizo tal proclama. El derribo se dirige hacia aquellos que han confeccionado y perpetuado la ficción».

De hecho, Swade lleva años defendiendo que la verdadera y valiosa aportación de Ada Lovelace, y aquella por la que debería ser celebrada y recordada, fue su capacidad de ver más allá: «Babbage no vio en ningún momento que las computadoras pudieran operar fuera de las matemáticas», dice el historiador, mientras que «fue Lovelace, no Babbage ni sus contemporáneos, quien vio que los números podían representar entidades diferentes de las cantidades: notas de música, letras del abecedario o más cosas, y que el potencial de las computadoras residía en el poder de representación de los símbolos, en su capacidad de manipular representaciones simbólicas del mundo de acuerdo a unas reglas».

Ada Lovelace continuará siendo lo que siempre ha sido, pionera de la computación, una figura brillante y adelantada a su época que combinó maravillosamente su vocación científica con la herencia poética que le venía de familia; un espléndido ejemplo para las Ciencias Mixtas. Mañana contaré algún aspecto más de su vida, igualmente insólito.