Entradas etiquetadas como ‘tecnología’

Cuidado con la idea de la obsolescencia programada, y con el negocio en torno a ella

¿Quién no ha dicho alguna vez eso de “hoy las cosas ya no duran como antes”? Yo lo he dicho y, es más, pienso que hoy algunas cosas ya no duran como antes. Pero cuidado: del hecho, si es que lo es*, de que hoy las cosas ya no duren como antes, a tragarnos sin más la idea de que existe una estrategia oculta y generalizada en la industria basada en fabricar deliberadamente cosas que se autodestruyen, y de que existen por ahí ciertos beatíficos ángeles salvadores (amenazados de muerte por ello) para quienes en realidad lo de menos es vender sus propios productos, ya que les basta con vivir de las hierbas que recogen en el campo, sino que les mueve sobre todo su incontenible pasión por el bien, la justicia y la salvación del planeta y la humanidad, hay un abismo.

Y antes de saltar ese abismo alegremente, por lo menos informémonos.

Vaya por delante que, como es evidente, no soy un experto en márketing, ni en industria, ni en mercado, ni en economía. Así como en temas directamente científicos procuro aportar aquí la visión de quien tiene ya muchas horas de vuelo en ello, en cambio no puedo ni jamás trataría de alzarme como una voz autorizada en esto de la obsolescencia programada. Pero como exinvestigador científico, periodista de ciencia, y por tanto aficionado a los hechos, cuando una teoría de la conspiración comienza a convencer a todo el mundo a mi alrededor, y cuando además hay claramente quienes basan su propia estrategia de negocio en fomentar esta teoría de la conspiración, uno no puede menos que preguntarse qué hay de cierto en todo ello y buscar las fuentes de quienes están más informados que uno. Cosa que invito a todos a hacer por medio de las siguientes líneas.

Comencemos, en primer lugar, por el típico tópico que inicia y anima todos los reportajes, opiniones, discusiones y charlas de bar sobre la obsolescencia programada: la famosa bombilla del parque de bomberos de California que lleva luciendo casi sin interrupción desde 1901, y que tiene su propia web con webcam. Si una bombilla puede lucir durante más de un siglo, ¿por qué nos venden basura que se funde a las primeras de cambio?, se preguntan muchos, y allá que vamos a por las antorchas y los tridentes.

Sin embargo, cuidado, hay algún matiz más que relevante. Los estudios sobre la bombilla de California –fabricada en Ohio– han determinado que su filamento es de carbono, no de tungsteno o wolframio (por cierto, el único elemento químico de la tabla periódica aislado en España, por los hermanos Delhuyar en 1783), ya que este material no se convertiría en el estándar hasta comienzos del siglo XX. Y que es ocho veces más grueso de lo normal. Obviamente, a mayor grosor, mayor durabilidad; la bombilla de California podrá estropearse, pero jamás va a fundirse, salvo quizá si le cae un rayo.

La bombilla centenaria en Livermore, California. Imagen de LPS.1 / Wikipedia.

La bombilla centenaria en Livermore, California. Imagen de LPS.1 / Wikipedia.

No hay que saber nada de física, sino simplemente haber utilizado alguna vez un calefactor o un hornillo, para saber que si se aplica electricidad a una barra de metal, se pone al rojo. Pero eso sí: un calefactor o un hornillo no alumbran, y no serían de ningún modo una opción energéticamente eficiente para alumbrarse. Y tampoco la bombilla de California alumbra, ya que luce con una potencia de 4 vatios, con un brillo similar a las luces quitamiedos que ponemos a los niños por la noche. Así que, lo que se dice un producto modelo, no es: a la pregunta de por qué no nos vendieron a todos bombillas con filamentos ocho veces más gruesos, la respuesta es que los filamentos más gruesos desperdician más energía alumbrando menos. Precisamente las bombillas tradicionales fueron víctimas de su ineficiencia energética.

Pero sí, es cien por cien cierto que existió una conspiración de los grandes fabricantes de bombillas para ponerse de acuerdo en hacer productos menos duraderos de lo que era tecnológicamente posible. Ocurrió en los años 20, se conoce como el cártel de Phoebus, y en él las empresas acordaron fabricar bombillas con una duración de 1.000 horas, la mitad de lo normal entonces. A cambio, las bombillas serían más luminosas, más eficientes y de mayor calidad. Pero obviamente lo que movía a aquellos empresarios no era el interés del consumidor, sino su propio ánimo de lucro.

Ahora bien: ¿basta esta historia para asumir la generalización de que todos los grandes líderes de todos los sectores industriales conspiran para fabricar productos que se autodestruyen?

Hay por ahí un buen puñado de trabajos periodísticos rigurosos de lectura vivamente recomendable para quienes prefieran no dejarse llevar por la demagogia dominante, al menos no sin antes basar su juicio en hechos informados. En 2016, Adam Hadhazy se preguntaba en la BBC: ¿existe en realidad la obsolescencia programada?

Esta era la respuesta de Hadhazy: “sí, pero con limitaciones”. “En cierto modo, la obsolescencia programada es una consecuencia inevitable de los negocios sostenibles que dan a la gente los productos que la gente quiere. De esta manera, la obsolescencia programada sirve como reflexión de la voraz cultura consumista que las industrias crearon para su beneficio, pero que no crearon ellas solas”, escribía el periodista.

Por su parte, en la web Hackaday, Bob Baddeley escribía: “Toda la teoría de la conspiración se explica cuando consideras que los fabricantes están dando a los consumidores exactamente lo que piden, lo que a menudo compromete el producto de diferentes maneras. Siempre es un toma y daca, y las cosas que hacen a un producto más robusto son las cosas que los consumidores no consideran cuando compran un producto”.

Como ejemplo, Baddeley cita su propia experiencia; él ayudó a desarrollar un producto que lleva una pila de botón no reemplazable. La imposibilidad de cambiar la batería cuando se agota en los smartphones actuales es otro de los tópicos esgrimidos en todo reportaje, documental o charla sobre la obsolescencia programada. Cito a Baddeley:

Las razones que llevaron a esta decisión [de la pila no reemplazable] son esclarecedoras:

  • No conseguimos que a los consumidores les interesara usar el producto durante más tiempo que el que duraba la pila.

  • Incluso si les interesaba, no conseguíamos que compraran el tipo correcto de pila (CR2032).

  • Incluso si lo hacían, no podíamos confiar en ellos para tener la destreza de quitar la tapa y cambiar la pila.

  • Protestaban porque la tapa de la pila hacía que el producto pareciera barato y endeble.

  • Protestaban porque el agua y el polvo entraban con más facilidad.

  • Tristemente, todas estas protestas solo eran posibles entre los usuarios que entendían que su dispositivo de comunicación sin cable llevaba una pila.

En resumen, el mensaje es este: la cultura consumista pone el acento en los productos más nuevos, con más prestaciones, la última tecnología y el diseño más actual; y todo ello al precio más barato posible. Pero la durabilidad no es una prioridad. Por lo tanto, los fabricantes buscan producir bienes siempre nuevos, con más prestaciones, la última tecnología y el diseño más actual. Y para que el precio sea lo más barato posible, reducen costes en procesos y materiales. Aunque a causa de ello los productos duren poco. De hecho, si duran poco, mejor para el negocio; de todos modos, piensan, nadie quiere seguir usando un smartphone de hace cinco años.

“Sobre todo, las compañías reaccionan a los gustos del consumidor”, dice en el artículo de Hadhazy la profesora de finanzas y economía de la Universidad de Yale Judith Chevalier. “Creo que existen ocasiones en que las empresas están engañando al consumidor de alguna manera, pero también pienso que hay situaciones en las que yo pondría la culpa en el consumidor”.

Según Hadhazy, “aunque algunos de estos ejemplos de obsolescencia programada son indignantes, es enormemente simplista condenar la práctica como mala. A escala macroeconómica, el rápido recambio de los productos alimenta el crecimiento y crea montones de puestos de trabajo; piensen en el dinero que la gente gana, por ejemplo, fabricando y vendiendo millones de fundas de móviles. Aún más, la introducción continua de nuevos artilugios para conquistar (o reconquistar) la pasta de nuevos y viejos consumidores tenderá a promover la innovación y mejorar la calidad de los productos”.

Incluso Giles Slade, autor del libro Made to Break: Technology and Obsolescence in America, reconoce: “No hay ninguna duda: más gente ha obtenido una mejor calidad de vida como resultado de nuestro modelo de consumo que en ningún otro momento de la historia”. Sin embargo, añade: “Por desgracia, también es responsable del calentamiento global y los residuos tóxicos”.

Por lo tanto, todo ser humano que se indigne y proteste por la obsolescencia programada quizá debería hacerse esta pregunta: ¿estoy dispuesto a quedarme con el mismo móvil, el mismo coche o la misma ropa durante años y años, cuando mi ropa ha pasado de moda, mi coche no tiene Bluetooth ni pantallas ni contesta cuando le hablo, y cuando todo el mundo tiene móviles más nuevos que el mío? (Y por cierto, todo humano medioambientalmente responsable también debería saber que actualmente el uso de los móviles en todo el mundo genera 125 millones de toneladas de CO2 al año).

Y también por cierto, rescato aquí el asterisco que dejé más arriba* respecto a las cosas de ahora que duran menos: el artículo de Hadhazy cita también el dato de que actualmente la edad media del coche que circula por las carreteras de EEUU es de 11,4 años, mientras que en 1969 era de 5,1 años. ¿Duran más los coches hoy? ¿Se cambian menos? ¿Ha bajado la fiebre del coche nuevo respecto a otros tiempos? ¿No hay dinero para cambiar de coche? No tengo la menor idea de cuál es la respuesta, pero el dato es interesante. Ya que al menos no parece apoyar la idea generalizada de que hoy todo dura menos.

A todo lo anterior, Hadhazy cita una excepción: la tecnología de lujo. Quien se compra un Rolex espera que le dure toda su vida y hasta la de sus nietos. Se supone que un Rolex está bien hecho, con procesos y materiales de calidad suprema. Y es, por tanto, más caro. Al ser una minoría quienes lo compran, seguirá siendo caro. Pero, sigue el artículo de la BBC:

“Con el paso de los años, las características de una versión de lujo de un producto pueden abrirse camino al mercado de masas a medida que su producción se abarata y los consumidores esperan esos beneficios. Pocos discutirían que la mayor disponibilidad de dispositivos de seguridad como los airbags en los coches, que originalmente solo se encontraban en los modelos más caros, ha sido un avance positivo. Así que, en su reconocido propio interés, la competición de un capitalismo influido por la obsolescencia programada puede también favorecer el interés de los consumidores”.

Todo lo anterior nos lleva ahora a la segunda parte: el negocio basado en fomentar la teoría de la conspiración de la obsolescencia programada. Cuando uno observa a su alrededor que numerosos medios están poniendo la alfombra roja a determinados personajes que se presentan a sí mismos como salvadores de la humanidad y del planeta contra la obsolescencia programada y como probables víctimas inminentes de un sicario o un francotirador a sueldo de los poderosos oligopolios, pero que en el fondo tales personajes no están haciendo otra cosa que publicitar y promocionar su propio negocio con evidente ánimo de lucro, uno no puede sino oler un cierto tufillo a chamusquina.

No voy a citar aquí nombres de personas o productos, dado que no he investigado sobre ellos personalmente. Pero a quien en estos días escuche una nueva oleada, recurrente cada cierto tiempo, sobre las bondades del español inventor de la bombilla eterna y paladín contra la malvada industria, le recomiendo que como mínimo lea este artículo de Rocío P. Benavente para Teknautas en El Confidencial o este análisis del producto en cuestión de Michel Silva en la web iluminaciondeled.com, junto con, quizá, esta nota de prensa. Y después, fórmense su propia opinión, pero al menos después de haber escuchado a las dos partes.

¿Qué le falta a esta música generada por Inteligencia Artificial?

No, no es una adivinanza, ni una pregunta retórica. Realmente me pregunto qué es lo que le falta a la música generada por Inteligencia Artificial (IA) para igualar a la compuesta por humanos. Sé que ante esta cuestión es fácil desenvainar argumentos tecnoescépticos, una máquina no puede crear belleza, nunca igualará a la sensibilidad artística humana, etcétera, etcétera.

Pero en realidad todo esto no es cierto: las máquinas pintan, escriben, componen, y los algoritmos GAN (Generative Adversarial Network, o Red Antagónica Generativa) ya las están dotando de algo muy parecido a la imaginación. Además, y dado que las mismas máquinas también pueden analizar nuestros gustos y saber qué es lo que los humanos adoran, no tienen que dar palos de ciego como los editores o productores humanos: en breve serán capaces de escribir best sellers, componer hits y guionizar blockbusters.

El salto probablemente llegará cuando los consumidores de estos productos no sepamos (no “no notemos”, sino “no sepamos”) que esa canción, ese libro o esa película o serie en realidad han sido creados por un algoritmo y no por una persona. De hecho, la frontera es cada vez más difusa. Desde hace décadas la música y el cine emplean tanta tecnología digital que hoy serían inconcebibles sin ella. Y aunque siempre habrá humanos detrás de cualquier producción, la parcela de terreno que se cede a las máquinas es cada vez mayor.

Pero en concreto, en lo que se refiere a la música, algo aún falla cuando uno escucha esas obras creadas por IA. El último ejemplo viene de Relentless Doppelganger. Así se llama un streaming de música que funciona en YouTube 24 horas al día desde el pasado 24 de marzo (el vídeo, al pie de esta página), generando música technical death metal inspirada en el estilo de la banda canadiense Archspire, y en concreto en su último álbum Relentless Mutation (Doppelganger hace referencia a un “doble”).

Este inacabable streaming es obra de Dadabots, el nombre bajo el que se ocultan CJ Carr y Zack Zukowski, que han empleado un tipo de red neural llamado SampleRNN –originalmente concebida para convertir textos en voz– para generar hasta ahora diez álbumes de géneros metal y punk inspirados en materiales de grupos reales, incluyendo el diseño de las portadas y los títulos de los temas. Por ejemplo, uno de ellos, titulado Bot Prownies, está inspirado en Punk in Drublic, uno de los álbumes más míticos de la historia del punk, de los californianos NOFX.

Imagen de Dadabots.

Imagen de Dadabots.

Y, desde luego, cuando uno lo escucha, el sonido recuerda poderosamente a la banda original. En el estudio en el que Carr y Zukowski explicaban su sistema, publicado a finales del año pasado en la web de prepublicaciones arXiv, ambos autores explicaban que su propósito era inédito en la generación de música por IA: tratar de captar y reproducir las “distinciones estilísticas sutiles” propias de subgéneros muy concretos como el death metal, el math rock o el skate punk, que “pueden ser difíciles de describir para oyentes humanos no entrenados y están mal representadas por las transcripciones tradicionales de música”.

En otras palabras: cuando escuchamos death metal o skate punk, sabemos que estamos escuchando death metal o skate punk. Pero ¿qué hace que lo sean para nuestros oídos? El reto para los investigadores de Dadabots consistía en que la red neural aprendiera a discernir estos rasgos propios de dichos subgéneros y a aplicarlos para generar música. Carr y Zukowski descubrieron que tanto el carácter caótico y distorsionado como los ritmos rápidos de estos géneros se adaptan especialmente bien a las capacidades de la red neural, lo que no sucede para otros estilos musicales.

Y sin duda, en este sentido el resultado es impresionante (obviamente, para oídos que comprenden y disfrutan de este tipo de música; a otros les parecerá simple ruido como el de las bandas originales). Pero insisto, aparte del hecho anecdótico de que las letras son simples concatenaciones de sílabas sin sentido, ya que no se ha entrenado a la red en el lenguaje natural, la música de Dadabots deja la sensación de que aún hay un paso crucial que avanzar. ¿Cuál es?

No lo sé. Pero tengo una impresión personal. Carr y Zukowski cuentan en su estudio que la red neural crea a partir de lo ya creado, lo cual es fundamental en toda composición musical: “Dado lo que ha ocurrido previamente en una secuencia, ¿qué ocurrirá después?”, escriben Carr y Zukowski. “La música puede modelizarse como una secuencia de eventos a lo largo del tiempo. Así, la música puede generarse prediciendo ¿y entonces qué ocurre? una y otra vez”.

Pero esto ocurre solo un sampleado tras otro, mientras que un tema escrito por un compositor humano tiene un sentido general, un propósito que abarca toda la composición desde el primer segundo hasta el último. Toda canción de cualquier género tiene una tensión interna que va mucho más allá de, por ejemplo, la resolución de los acordes menores en acordes mayores. Es algo más, difícil de explicar; pero al escuchar cualquier tema uno percibe un propósito general de que la música se dirige hacia un lugar concreto. Y da la sensación de que esto aún le falta a la música automática, dado que la máquina solo se interesa por un “después” a corto plazo, y no por lo que habrá más allá. Se echa de menos algo así como una tensión creciente que conduzca hacia un destino final.

Sin embargo, creo que ya pueden quedar pocas dudas de que la música generada por IA terminará también superando estos obstáculos. Ya tenemos muchos ejemplos y muy variados de composiciones cien por cien digitales. Y si hasta ahora ninguna de ellas ha conseguido instalarse como un hit, ya sea entre el público mayoritario o entre los aficionados a estilos musicales más marginales, se da la circunstancia de que tampoco ninguna de ellas ha cruzado la barrera de lo etiquetado como “diferente” porque su autor no es de carne y hueso. Probablemente llegará el momento en que un tema se convierta en un éxito o en un clásico sin que el público sepa que el nombre que figura en sus créditos no es el de la persona que lo compuso, sino el de quien programó el sistema para crearla.

Estas personas no existen, y crearlas puede ser adictivo

Fíjense en estas personas:

Parecen individuos perfectamente normales… salvo por el hecho de que jamás han existido. Las imágenes han sido creadas por inteligencia artificial; no son copias modificadas de personas reales, ni son pastiches de diversos rostros. Son caras cien por cien originales generadas por un algoritmo que ha aprendido a crearlas, del mismo modo que un músico utiliza su conocimiento adquirido para componer piezas nuevas sin copiar –se supone– otras existentes.

El secreto de esta perfección es un sistema llamado Red Generativa Antagónica o GAN (siglas de su nombre en inglés, Generative Adversarial Network), creado en 2014 por el científico computacional Ian Goodfellow, aunque la idea ya había sido anticipada en años anteriores por otros como Jürgen Schmidhuber y Roderich Gross.

La clave de la GAN es utilizar dos redes neuronales artificiales que compiten entre si: una genera las caras, mientras que la otra las evalúa para descubrir sus defectos. Ambas aprenden de sus errores, de modo que la primera va mejorando sus creaciones y la segunda va perfeccionando su capacidad de discriminación.

En un breve periodo de tiempo y con algo de entrenamiento previo, el sistema aprende no solo a reconocer patrones –qué hace que una cara sea una cara y no un frigorífico–, sino a crear nuevas representaciones extremadamente realistas, todo ello sin supervisión humana. Según los expertos, esta capacidad es una manera de dotar a las máquinas de imaginacion, algo que ya no es un privilegio exclusivo de nuestro cerebro.

Por el momento, las GAN se han utilizado con preferencia para producir representaciones visuales, no solo de rostros, sino también de gatos, coches o dormitorios. Como ya conté aquí, en 2017 la compañía de procesadores gráficos NVIDIA desarrolló una GAN para crear rostros de falsos famosos. Desde entonces, esta tecnología se ha perfeccionado; la última versión de NVIDIA, llamada StyleGAN, es capaz de manejar los diferentes rasgos de la cara de forma independiente para controlar el resultado general de su integración.

Las fotos mostradas en esta página se han creado mediante esta nueva tecnología, que el ingeniero de Uber Phillip Wang –sí, Uber es una compañía tecnológica, no un sindicato privado de taxis– ha aplicado en su web ThisPersonDoesNotExist.com (esta persona no existe); cada vez que se refresca la página, en unos segundos la GAN genera una nueva cara de una persona completamente inexistente.

A la vista está que los resultados son impresionantes. En el rato que he dedicado a juguetear con la GAN para escribir esta página, he comprobado que en general el resultado es casi irreprochable; al tamaño y la resolución mostrados, en la mayoría de los casos prácticamente no se aprecian errores de bulto.

Pero sí, también hay fallos. Y si uno se dedica a buscarlos, descubre que el juego de generar caras y buscar errores puede ser casi adictivo. Un caso curioso es el de los pendientes; al parecer, la GAN aún no ha aprendido que en la mayor parte de los casos las mujeres suelen llevar pendientes iguales en ambas orejas:

Y aunque muchos hombres también utilizamos pendientes, la GAN tampoco parece contemplar generalmente este caso; solo en una ocasión me ha aparecido un hombre con un pendiente, y es esta especie de popstar indonesio entrado en años:

A la GAN a veces le cuesta resolver el encaje de las gafas en la cara, lo que da lugar a efectos aberrantes, como las cejas dobles:

Otro error frecuente es el de los dientes. Fíjense en estos dos jóvenes:

Parecen muy bien logrados, hasta que uno se fija en que sus dientes están descolocados; hay un incisivo que cae justo en el centro de la boca. Esto es algo que se aprecia en muchas de las imágenes en las que el rostro aparece ligeramente ladeado.

Pero sin duda, donde la GAN falla con más frecuencia es en la resolución de los contornos y fondos. En muchos casos parece que la persona está posando delante de una obra de arte abstracta, o incluso que forma parte de ella:

Y cuando se añaden gorros o tocados, el resultado puede ser algo esperpéntico:

Claro que los gustos en cuestión de moda son enormemente personales:

Pero sin duda el caso más curioso, a la par que aterrador, es que en muchas imágenes parece existir alguien junto al rostro retratado que intenta sin éxito colarse en la foto. Y generalmente se trata de seres horripilantes. Con menos que esto, Iker Jiménez ha montado muchos programas:

A lo que se añaden los casos, raros pero también los hay, en los que la GAN directamente entra en barrena:

Y los casos en los que la GAN parece no decidirse entre crear un niño, una anciana u otra cosa que no se sabe muy bien qué es:

O si crear un clon infantil de Mickey Rourke, o variaciones de Jeff Goldblum virando hacia… ¿Oriental? ¿Mujer?

En definitiva y a la espera de que las GAN se apliquen a otros usos más útiles y prácticos, por el momento podemos entretenernos jugando a crear personas imaginarias. O para quien lo prefiera, gatos, que también tienen su versión. Respecto a si antes de eso las GAN llegarán a emplearse para otros usos menos edificantes, como poner a personas reales en situaciones en las que dichas personas no se pondrían ante una cámara… Deberemos acostumbrarnos a que en el futuro cada vez nos va a costar más diferenciar la realidad de la ficción.

Los premios Breakthrough, más del siglo XXI que los Nobel

La fundación Breakthrough Prize, que concede los premios de ciencia con la dotación económica más alta del mundo, ha anunciado sus ganadores de la edición de este año, que recibirán sus galardones el domingo 4 de noviembre en una ceremonia presentada por el actor Pierce Brosnan. El acto se retransmitirá en directo por internet desde el centro de investigación Ames de la NASA, en Silicon Valley (EEUU).

En total se repartirán siete premios, cada uno dotado con 3 millones de dólares: cuatro en ciencias de la vida, dos en física fundamental y uno en matemáticas. De los dos premios de física, uno es un galardón extraordinario (que ya aplaudí aquí) para Jocelyn Bell Burnell, la astrónoma que descubrió el primer púlsar en 1968 y que fue ignorada por el Nobel.

Los ganadores de los premios Breakthrough en 2016. Imagen de Breakthrough Prize.

Los ganadores de los premios Breakthrough en 2016. Imagen de Breakthrough Prize.

Este es el resumen de los ganadores y lo que han hecho para merecer esto. En ciencias de la vida, el estadounidense C. Frank Bennett y el uruguayo radicado en EEUU Adrian R. Krainer compartirán uno de los premios por la obtención del Nusinersen/Spinraza, una terapia de nueva generación contra la atrofia muscular espinal, una rara enfermedad neurodegenerativa que sin embargo es hoy la principal causa genética de muerte infantil.

El tratamiento consiste en el uso de pequeñas moléculas de ADN llamadas oligonucleótidos antisentido que consiguen dirigir correctamente la expresión de los genes. El medicamento fue aprobado en 2016 en EEUU y al año siguiente en la UE, y por el momento ha conseguido que la atrofia muscular espinal ya no sea una sentencia de muerte segura para los niños afectados. Por otra parte, el éxito de este fármaco ha impulsado la aplicación de la terapia con oligos antisentido a otras muchas enfermedades.

Los otros tres premios en esta categoría irán para la austro-estadounidense Angelika Amon por sus estudios de los mecanismos celulares patológicos de los errores en el número de cromosomas (como ocurre por ejemplo en el síndrome de Down o en el 80% de los cánceres); para la china-estadounidense Xiaowei Zhuang por desarrollar una técnica de microscopía óptica de ultra-alta resolución llamada STORM que permite observar estructuras celulares 10.000 veces más pequeñas que el grosor de un pelo humano; y para el también chino-estadounidense Zhijian James Chen por descubrir un mecanismo sorprendente que activa el sistema inmunitario gracias a una enzima que detecta la presencia de ADN en el interior celular pero fuera del núcleo, lo cual ocurre en las células dañadas o infectadas por virus. Este mecanismo podría aprovecharse para combatir enfermedades como el cáncer, pero también ayudará a comprender mejor las enfermedades autoinmunes como el lupus o la esclerosis múltiple.

El premio de física lo comparten los estadounidenses Charles Kane y Eugene Mele por abrir el camino hacia un nuevo tipo de materiales llamados aislantes topológicos, que tienen la peculiaridad de conducir la corriente eléctrica en su superficie al mismo tiempo que son aislantes en el interior. Estos materiales ofrecerán un nuevo sistema controlado para investigar el comportamiento de las partículas subatómicas, pero además su extraña simetría representa un modelo para aplicar restricciones topológicas similares a otros tipos de fenómenos físicos, como la luz o el sonido. Más allá de su interés teórico, los expertos predicen grandes aplicaciones de estos futuros materiales en los sistemas electrónicos, incluyendo la computación cuántica.

Finalmente, el premio de matemáticas ha recaído en el francés Vincent Lafforgue por varias contribuciones en geometría algebraica con múltiples posibilidades de aplicación, desde la computación, la criptografía y la ciberseguridad a la mecánica cuántica o el diseño de nuevos materiales para crear energías limpias. Pero como si fuera el Gordo de Navidad, sigue el reparto de la lluvia de millones: Breakthrough apoya también los logros de los jóvenes investigadores concediendo otros seis premios adicionales de 600.000 dólares repartidos entre las categorías de física y matemáticas.

Hasta aquí, la información. Pero un aspecto interesante de los premios Breakthrough es que en solo siete ediciones han conseguido situarse como un nuevo referente destacado entre los galardones de ciencia (desde luego, con una resonancia científica internacional infinitamente mayor que nuestros Princesa de Asturias). Evidentemente, cuando alguien pone más de 22 millones de dólares encima de la mesa, pocos más argumentos se necesitan; aunque un Nobel seguirá siendo un Nobel, y probablemente más de un galardonado con el Breakthrough estaría dispuesto a renunciar a los más de dos millones de dólares de diferencia por hacerse con la medalla sueca.

Pero tratándose en todo caso de premios personalistas, un modelo que se corresponde poco o nada con la realidad actual de la ciencia colaborativa, los Breakthrough reúnen algunas cualidades que los sitúan en un contexto más de este siglo que los Nobel. Para empezar, premian ciencia de vanguardia, mientras que en general los Nobel continúan premiando ciencia del siglo XX. Cuando se presentan los ganadores de los Nobel en los medios a veces se transmite la impresión de que las investigaciones galardonadas son actuales; pueden serlo sus aplicaciones, pero los hallazgos suelen ser antiguos, en muchos casos de hace décadas.

La razón de esto es que en cierto modo los Nobel se han convertido en víctimas de su propio prestigio; se han hecho tan grandes que los jurados suelen aplicar criterios muy conservadores, demorando la distinción de logros o hallazgos hasta que el paso del tiempo los ha consolidado. En la práctica, y dado que un investigador que logra un avance importante suele dedicar el resto de su vida a él, los premios de ciencia se parecen al de Literatura: no se conceden a una obra concreta, sino a toda una carrera.

Imagen de Wikipedia.

Imagen de Wikipedia.

Un ejemplo lo tenemos comparando el premio Breakthrough a Bennett y Krainer con el Nobel de Medicina de este año, concedido a James P. Allison y Tasuku Honjo por el descubrimiento de la inmunoterapia contra el cáncer. En ambos casos los tratamientos derivados de los hallazgos están de plena actualidad y aún tienen un enorme potencial de desarrollo futuro. Es más, ambos enfoques terapéuticos pueden convivir perfectamente durante las próximas décadas. Pero desde el punto de vista científico, que es de lo que se trata, la inmunoterapia es el pasado (también lo es la aspirina, un pasado mucho más antiguo, y aún sigue funcionando). En cambio, la terapia antisentido es una nueva frontera.

Todo lo cual, además y curiosamente, hace caer a los Premios Nobel en una contradicción. La organización suele escudarse en un seguimiento estricto de sus normas para justificar que solo se premie a un máximo de tres científicos en cada categoría, o que no se concedan premios póstumos. Pero en realidad estas restricciones no figuraban en el testamento en el que Alfred Nobel instituyó los premios, sino que fueron incorporadas después. Y en cambio, lo que sí figura en el testamento es que los premios deben concederse por avances logrados durante el año precedente. Lo que, obviamente, nunca se respeta.

Hasta tal punto los Nobel, sin perder nunca ni un ápice de su prestigio, sí son cada vez más cuestionados, que incluso existe una web dedicada a promover una reforma en estos premios para adecuarlos a la realidad de la ciencia actual y corregir sus errores. Su promotor es el astrofísico Brian Keating, buen conocedor de la organización como uno de los encargados de nominar a los candidatos. Keating ha llegado incluso a sugerir que los Nobel de ciencia se tomen un año de vacaciones para replantear su enfoque.

En cuanto a los Breakthrough, su carácter diferente y más actual se entiende repasando los nombres que están detrás de esta fundación: entre otros, Sergey Brin (Google), Mark Zuckerberg (Facebook), Anne Wojcicki (23andMe, líder en genómica personal) y Yuri Milner (magnate tecnológico). Como personajes del mundo de la tecnología, se comprende que estén más interesados en la ciencia puntera; incluso cuando se trata de ciencia básica, es previsible que los hallazgos merecedores de los premios vayan a ser también merecedores de jugosas inversiones en Silicon Valley, por lo que los Breakthrough pueden mover la cinta transportadora que mueve el dinero desde la empresa a la investigación para volver a la empresa y volver a la investigación.

Al fin y al cabo, de esto se trata: los premios promocionan la ciencia bajo la excusa de promocionar a los científicos. En palabras de Keating, “el propósito de Alfred Nobel no era engordar la cartera de los científicos. En su lugar, quería atraer la atención a sus trabajos beneficiosos e incentivar nuevas invenciones”. Lo cual, para ser una idea de 1895, era una idea muy moderna.

El avión de Malaysia Airlines pasa a la historia de las desapariciones en el mar

Esta semana se ha anunciado que se suspende definitivamente la búsqueda del vuelo MH370 de Malaysia Airlines, un Boeing 777 desaparecido en el océano el 8 de marzo de 2014 mientras volaba de Kuala Lumpur a Pekín con 239 personas de 14 nacionalidades a bordo.

En cualquier caso estaba previsto que este último intento, iniciado a comienzos de 2018, finalizara este mes, pero ante la falta de resultados el gobierno malasio ha decidido abortar la búsqueda y ahorrarse 93 millones de dólares: la compañía encargada del rastreo, la estadounidense Ocean Infinity, había firmado un contrato bajo la condición de que solo cobraba si encontraba los restos.

El avión desaparecido, fotografiado en 2011. Imagen de Laurent ERRERA from L'Union, France / Wikipedia.

El avión desaparecido, fotografiado en 2011. Imagen de Laurent ERRERA from L’Union, France / Wikipedia.

La anterior búsqueda, dirigida por Australia y que terminó en enero de 2017, exploró más de 120.000 km² del fondo del océano Índico sin ningún resultado. A raíz de esta primera expedición se definió un área prioritaria de 25.000 km² que ha servido como base para la intervención de Ocean Infinity. Esta compañía dice contar con la flota más avanzada de vehículos submarinos autónomos del mundo, que en solo tres meses han cubierto un total de 112.000 km² de lecho oceánico en busca del MH370, una extensión casi similar a la rastreada por los investigadores australianos en dos años y medio.

Pese al fin prematuro de la operación, no puede decirse que los esfuerzos se hayan quedado cortos. Según declaraba en un comunicado el CEO de Ocean Infinity, Oliver Plunkett, “simplemente nunca antes se ha emprendido una búsqueda submarina de esta escala llevada a cabo con tanta eficiencia y efectividad”. Basta repasar la historia de la búsqueda, tanto de esta que ahora concluye como de la primera, para comprobar que los medios tecnológicos empleados han sido espectaculares.

El buque Seabed Constructor de Ocean Infinity, con uno de sus submarinos autónomos. Imagen de Ocean Infinity.

El buque Seabed Constructor de Ocean Infinity, con uno de sus submarinos autónomos. Imagen de Ocean Infinity.

Pero todo ello no ha servido para resolver el misterio de qué le sucedió al MH370 y cuál fue su último paradero. Frente a todo el despliegue de tecnología, los únicos testimonios mudos del siniestro han aparecido por sí solos, fragmentos dispersos del avión transportados a la deriva por las corrientes marinas.

Dada la atracción del ser humano por los misterios (y lo rentables que resultan para quien sabe explotarlos), casos como el del MH370 son los que han alimentado mitos que nunca decaen: exageraciones, datos falsos, verdades a medias y mucho cherry-picking (como llaman en inglés a quedarnos solo con la parte que nos interesa) dieron origen a productos comerciales como el Triángulo de las Bermudas.

Pero lo cierto es que todavía en el siglo XXI es posible que el mar se trague más de 200.000 kilos de avión sin dejar rastro. La tragedia del MH370 se suma ahora a otros muchos casos históricos de desapariciones aéreas inexplicadas, entre las cuales hay algunas muy célebres como la del explorador noruego Roald Amundsen, que el 18 de junio de 1928 se desvaneció sobre el Ártico con otros cinco tripulantes, o la de la aviadora estadounidense Amelia Earhart y su navegante Fred Noonan, esfumados en el Pacífico el 2 de julio de 1937.

Por su parte, Ocean Infinity ha manifestado su deseo de reemprender la búsqueda del MH370 en el futuro, pero según lo publicado no parece muy probable que el gobierno de Malasia vuelva a encargar una nueva operación, al menos mientras no existan nuevas pruebas que pudieran orientar el rastreo en una nueva dirección con ciertas garantías de éxito.

La pulsera de Saint-Exupéry, hallada en 1998. Imagen de Fredriga / Wikipedia.

La pulsera de Saint-Exupéry, hallada en 1998. Imagen de Fredriga / Wikipedia.

Tal vez algún día, por casualidad o no, nuevas pistas dejen otro hilo del que tirar que pueda conducir hacia los restos del MH370. Ocurrió con otra famosa desaparición, la de Antoine de Saint-Exupéry, el autor de El principito. En 1998 el hallazgo casual en el mar de una pulsera identificativa de plata supuestamente perteneciente al escritor llevó entre 2000 y 2003 al descubrimiento de los fragmentos del avión cerca de la costa de Marsella.

A su vez, la localización de estos restos pudo vincularse a la aparición del cadáver de un aviador francés en la costa solo días después del último vuelo de Saint-Exupéry el 31 de julio de 1944. Por cierto que las técnicas actuales permitirían al menos investigar si aquel cadáver sin identificar, enterrado en la localidad de Carqueiranne, podría ser el del escritor. Si se quisiera saber. Que, al parecer, no se quiere. Pero esta es otra historia que, si acaso, ya contaremos otro día.

“En los drones militares autónomos falta la tecnología para distinguir a los objetivos de los civiles”

En los últimos años y más aún en los últimos meses, tanto en los medios políticos como en los científico-tecnológicos se viene hablando de los distintos avances que se están acometiendo hacia el desarrollo de drones militares autónomos, aquellos que podrían seleccionar sus objetivos y abatirlos (eufemismo de “matar”) sin intervención humana, guiándose por sus propias decisiones basadas en algoritmos de Inteligencia Artificial (IA) y aprendizaje automático.

Actualmente existen drones militares armados como el MQ-9 Reaper de General Atomics, que forma parte del arsenal de varios países; España comenzará a utilizarlos en 2019. Estos aparatos pueden volar solos, aunque suelen pilotarse a distancia; pero no matan solos.

Dron MQ-9 Reaper. Imagen de USAF.

Dron MQ-9 Reaper. Imagen de USAF.

La posibilidad de que algún día despeguen drones capaces de decidir por sí mismos sobre la vida y la muerte de seres humanos no solo es escalofriante, sino que según los expertos estas armas serían considerablemente más difíciles de vigilar que las nucleares, químicas o biológicas. Para estas se necesitan instalaciones militares específicas que pueden ser monitorizadas con mayor o menor facilidad, incluso vía satélite. Por el contrario, dicen los expertos, lo que distingue a los drones autónomos de los actuales es el software, y esto no puede vigilarse desde el espacio; menos aún teniendo en cuenta que gran parte de la tecnología implicada es de origen civil.

Por si aún dudan sobre la conveniencia de que estas tecnologías lleguen a ver la luz, les recomiendo ver este vídeo titulado Slaughterbots (Robots asesinos), elaborado por la Campaña contra los Robots Asesinos promovida por el Comité Internacional para el Control de las Armas Robóticas (ICRAC) y otras organizaciones. Hay quienes lo han tildado de alarmista. Pero necesariamente alarmista.

Mientras trabajaba en un reportaje para otro medio, me pareció interesante recabar y traerles aquí una breve visión de uno de los mayores expertos en esta área. El científico computacional Jeremy Straub, profesor de la Universidad Estatal de Dakota del Norte (EEUU) y director adjunto del Instituto de Investigación y Formación en Ciberseguridad, trabaja en IA y en sus aplicaciones autónomas aeroespaciales. Por tanto, Straub es uno de los científicos que se encuentran en esa incómoda encrucijada, desarrollando tecnologías que pueden aportar notables beneficios a la humanidad, pero que también pueden aplicarse para causar un inmenso daño.

¿Existe ya la tecnología de drones autónomos?

Actualmente ya se utiliza bastante autonomía en el vuelo de drones. Incluso muchos drones personales tienen navegación por GPS de punto a punto. Los drones militares pueden hacer uso de la misma tecnología de autopilotado. Los drones deben tener también la capacidad de operar de forma autónoma hasta cierto punto, en caso de que las comunicaciones se pierdan o sean interferidas por un enemigo, por lo que esto también está presente en los aparatos militares actuales.

¿Qué podría salir mal?

En el presente hay algunos obstáculos técnicos. Uno de los principales es la necesidad de identificar de forma precisa a los posibles objetivos. En particular, falta la tecnología necesaria para distinguir a los objetivos legítimos de los civiles o transeúntes. Para estas decisiones se requiere un contexto significativo, algo que ahora no es técnicamente práctico.

¿Cree posible que llegue a acordarse un veto internacional para este tipo de armas, como están impulsando varias organizaciones?

Personalmente me sorprendería bastante que se llegara al acuerdo de cualquier tipo de veto, porque ciertas naciones tienen más capacidades que otras en esta área, y lo ven como una ventaja competitiva. Además, los países podrían estar preocupados por el posible desarrollo secreto de estas armas por parte de los no firmantes del tratado, lo que les haría recelar de abandonar o limitar sus propios programas.

Si no se llega a un veto, ¿podría el desarrollo de los drones autónomos llevar a una situación similar a la de las armas nucleares en la Guerra Fría, de no agresión por disuasión?

Una limitación del uso basada en la disuasión, al estilo de la de la Guerra Fría, parece una situación plausible. Dado que el uso de los vehículos aéreos no tripulados no crea el mismo tipo de destrucción a gran escala que las armas nucleares, no estoy completamente seguro de que esto llegara a suprimir por completo el uso de los drones y sus ataques. Sin embargo, probablemente sí impediría un ataque masivo a gran escala que sería respondido de forma similar por la propia flota de drones del país atacado.

Marconi, el pionero de la radio que escapó de morir en el Titanic (y en el Lusitania)

Hace unos días les contaba aquí cómo una mala casualidad llevó al químico francés René Jacques Lévy a perder la vida en el Titanic, un barco en el que no debería haber viajado. Pero la suerte viene en dos sabores, y a algunos les toca la versión dulce. Este fue el caso del inventor y empresario italo-británico Guglielmo Marconi, uno de los pioneros de la radio y premio Nobel de Física en 1909 por su aportación al desarrollo de la telegrafía sin hilos (hoy más conocida como wireless).

Debido a dos casualidades afortunadas, Marconi y su mujer se libraron de viajar en la funesta travesía del Titanic. Pero además, y para los fans de esa divertidamente gore saga de películas titulada Destino final, el italiano burlaría una segunda vez a la muerte que le esperaba en el mar, para finalmente fallecer en su cama de un prosaico ataque cardíaco.

Guglielmo Marconi con sus equipos en 1901. Imagen de Wikipedia.

Guglielmo Marconi con sus equipos en 1901. Imagen de Wikipedia.

En su libro My Father, Marconi, su hija Degna contaba que su familia tenía alquilada una propiedad cerca de Southampton (Inglaterra), en cuyo extremo se erguía una torre de tres pisos a la orilla del mar. En la mañana del 10 de abril de 1912, Degna y su madre ascendieron a la torre para ver pasar al Titanic, que acababa de zarpar con rumbo a América.

La niña solo tenía entonces tres años y medio, pero recordaba bien la escena: “juntas saludamos al barco, inmenso y resplandeciente al sol de primavera, y docenas de pañuelos y bufandas nos saludaron de vuelta. Mientras el Titanic desaparecía de nuestra vista sobre las aguas calmadas, descendimos lentamente los escalones”. Sin embargo, Degna recordaba también cómo entonces su madre le apretaba la mano con tristeza. Años después supo por qué: “ella deseaba estar a bordo”.

Marconi y su esposa, Beatrice, habían sido invitados por la White Star Line para viajar en la travesía inaugural del Titanic por cuenta de la naviera (algunos relatos de la historia se refieren a la familia entera, pero lo cierto es que el libro de Degna solo menciona a sus padres). Según contaba Degna, su padre tenía mucho trabajo pendiente que resolver y para ello necesitaba la ayuda de un taquígrafo. Marconi disponía del suyo propio, un tal Magrini, pero “era inservible a bordo de un barco; pasaba el viaje mareado de costa a costa”. Así que debía recurrir al taquígrafo del propio buque. Pero, casualidad afortunada número uno, Marconi sabía que el taquígrafo del Lusitania era más rápido y competente, por lo que cambió su pasaje a este barco, que zarpaba tres días antes.

El Titanic, el 2 de abril de 1912. Imagen de Wikipedia.

El Titanic, el 2 de abril de 1912. Imagen de Wikipedia.

Así, la idea era que Beatrice tomara el Titanic y se reuniera con su marido en Nueva York. Pero, casualidad afortunada número dos, el pequeño de los Marconi enfermó. “Entonces Giulio lo arruinó todo cayendo presa de una de esas alarmantes fiebres de bebé que pueden ser el preludio de algo o de nada”, escribía Degna. “Ella cableó que debía posponer su viaje y quedarse a cuidar a su pequeño, y afrontar otra de esas separaciones interminables que tanto afectaban a su matrimonio”.

A su llegada a Nueva York en el Lusitania, Marconi supo que un mensaje recibido por una de sus estaciones traía noticias de un desastre en el mar. La mañana del 15 de abril el diario The New York Times publicaba la información: “a las 10:25 de anoche, el barco de la White Star Titanic emitió un CQD [de Come Quick, Danger, la señal de auxilio anterior al SOS] a la estación inalámbrica Marconi local informando de que había colisionado con un iceberg. El barco dijo necesitar ayuda inmediata”. El periódico había tratado de contactar telegráficamente con el capitán, sin éxito.

Lo que siguió fue, según Degna, un “pandemonio” de confusión y rumores, hasta tal punto que el diario Evening Sun de Nueva York informó aquella tarde de que todos los ocupantes del Titanic habían sido rescatados y que el buque estaba siendo remolcado con destino a Halifax, en Canadá. A última hora de la tarde se conoció una realidad muy diferente, que unos 700 supervivientes viajaban en el Carpathia hacia Nueva York, y que el resto hasta los más de 2.200, junto con el barco, habían quedado en el mar.

Cuando el 18 de abril el Carpathia atracó en el puerto neoyorquino, Marconi fue uno de los primeros en abordarlo, y por una buena razón. En medio de la consternación provocada por la tragedia del Titanic, el día anterior Marconi había recibido un entusiasta homenaje en la Sociedad Eléctrica de Nueva York. Según relataba el Times, el motivo lo había resumido en aquel acto el inventor estadounidense Frank Sprague: “Cuando mañana por la noche 700 u 800 personas pisen tierra en Nueva York, podrán mirarle a usted como su salvador”.

El primer sistema práctico y comercial de telegrafía inalámbrica, desarrollado por Marconi, había sido clave para que el Carpathia supiera del naufragio del Titanic y acudiera a rescatar a los supervivientes. De hecho, los dos radiotelegrafistas del barco siniestrado no eran empleados de la naviera White Star, sino de la compañía Marconi. El primer oficial, Jack Phillips, había perecido en el desastre; el segundo, Harold Bride, viajaba en el Carpathia.

Réplica de la sala de radiotelegrafía Marconi del Titanic. Imagen de Cliff1066 / W. Rebel / Wikipedia.

Réplica de la sala de radiotelegrafía Marconi del Titanic. Imagen de Cliff1066 / W. Rebel / Wikipedia.

Cuando Marconi subió al barco apenas tocó puerto, fue para entrevistarse con Bride y el telegrafista del Carpathia. Ambos operadores, junto con el fallecido Phillips, habían sido los artífices del rescate de más de 700 personas, gracias a la tecnología de Marconi. Unos días después, relataba Degna, los supervivientes se congregaron en el hotel donde se alojaba Marconi para expresarle su gratitud con una medalla de oro.

Según narraba Degna, paradójicamente el desastre del Titanic propició el ascenso de su padre a la cumbre de su carrera: el mundo entero fue consciente del inmenso poder de la telegrafía inalámbrica para salvar vidas, y desde entonces los equipos de Marconi se convirtieron en una herramienta imprescindible en la navegación marítima. Anecdóticamente, también el accidente cambió el estándar internacional de socorro: además de la señal usada hasta entonces, CQD, el Titanic emitió también el nuevo código propuesto, SOS, más fácil de marcar en Morse. Según Degna, aquella fue la primera vez que se lanzó al aire un SOS.

Llegamos así al “destino final” que Marconi logró evitar: tres años después del desastre del Titanic, en abril de 1915, el inventor embarcó de nuevo en Inglaterra en el Lusitania rumbo a Nueva York para testificar en un juicio por una patente. La Primera Guerra Mundial había comenzado, y Alemania había declarado las aguas británicas como zona de guerra. Cuando el trasatlántico regresaba de vuelta a Liverpool, la tarde del 7 de mayo, fue torpedeado y hundido por un submarino alemán cerca de la costa de Irlanda. Casi 1.200 personas perdieron la vida, mientras Marconi estaba sano y salvo en América.

Ilustración del hundimiento del Lusitania por Norman Wilkinson. Imagen de Circumscriptor / Wikipedia.

Ilustración del hundimiento del Lusitania por Norman Wilkinson. Imagen de Circumscriptor / Wikipedia.

Quien sí viajaba aquel día en el Lusitania y se hundió con él fue el millonario estadounidense Alfred Gwynne Vanderbilt. Cuenta la historia de su familia que Vanderbilt estuvo a punto de viajar tres años antes en el Titanic. Lo cierto es que hay cierta neblina al respecto: una investigación histórica determinó que el Vanderbilt que había comprado pasaje en el Titanic y finalmente decidió no viajar fue en realidad el tío de Alfred, George Washington Vanderbilt (que no murió en el Lusitania). Sin embargo, un descendiente de la saga escribía en una web sobre el Lusitania que, de acuerdo a la tradición de su familia, “Alfred también había considerado seriamente viajar en el Titanic”. Fuera cual fuese la realidad, la conclusión es la misma; no hay destinos finales, pero la suerte viene en dos sabores, y a algunos les toca la versión amarga.

Por qué padres y madres de Silicon Valley restringen el uso de móviles a sus hijos

Soy de la opinión de que la tecnología debe servir para resolvernos necesidades, y no para creárnoslas. Por ejemplo, la razón de ser de los fármacos es curarnos enfermedades. No tendría sentido que su fin fuera satisfacer la necesidad de consumirlos, como ocurre en las adicciones.

Es evidente que las necesidades van cambiando con los tiempos, y que su relación con el desarrollo de la tecnología es de doble sentido. Por ejemplo, el trabajo periodístico de hoy sería imposible sin un uso intensivo de la tecnología. Los dispositivos y las herramientas, internet, el correo electrónico o las redes sociales nos permiten cubrir el mundo entero al instante. Hoy el periodismo no podría volver a ser lo que era hace un siglo, pero si quizá las crecientes necesidades de información y comunicación han contribuido a la creación de las herramientas, también la aparición de estas se ha aprovechado para crear una necesidad de la que hoy ya no se puede prescindir.

Sin embargo, en otros casos la situación parece más simple. Nadie tenía realmente la necesidad de estar en contacto permanente con un amplio grupo de personas distantes durante cada minuto del día, en muchos casos ignorando la realidad más próxima. O de estar continuamente exhibiendo detalles de su vida a un amplio grupo de personas distantes durante cada minuto del día, y de estar cada minuto del día comprobando con ansia a cuántas de esas personas distantes les gusta esa exhibición. Si esto puede llegar a considerarse una adicción, según y en qué casos, y si esta adicción puede ser nociva, según y en qué casos, es algo que corresponde analizar a psiquiatras y psicólogos. Pero tratándose de adultos, allá cada cual.

El problema son los niños. Porque ellos no tienen ni la capacidad ni el derecho legal de elegir sus propias opciones, sino que dependen de las nuestras. Y porque sus cerebros están en desarrollo, y lo que nosotros hagamos hoy con sus mentes va a influir poderosamente en lo que ellos mismos puedan mañana hacer con ellas.

Niños con teléfonos móviles. Imagen de National Park Service.

Niños con teléfonos móviles. Imagen de National Park Service.

Muchos colegios, entre ellos el de mis hijos, están cambiando en gran medida el uso de las herramientas tradicionales por las informáticas: libros y cuadernos por iPads, papel por PDF, tinta por táctil, pizarras por pantallas, el contacto personal por el virtual… Bien, ¿no? Hay que aprovechar las últimas tecnologías, son los utensilios de hoy y del futuro que deben aprender a manejar, son nativos digitales, y blablabla…

Aparentemente todo esto solo resulta problemático para quienes preferimos que todas las afirmaciones categóricas de cualquier clase vengan avaladas por datos científicos. Y por desgracia, cuando pedimos que nos dirijan a los datos que demuestran cómo la enseñanza basada en bits es mejor para los niños que la basada en átomos, nadie parece tenerlos a mano ni saber dónde encontrarlos. Lo cual nos deja con la incómoda sensación de que, en realidad, el cambio no se basa en hechos, sino en tendencias. O sea, que el juicio es apriorístico sin datos reales que lo justifiquen: la enseñanza digital es mejor porque… ¡hombre, por favor, cómo no va a serlo!

Lo peor es que, cuando uno decide buscar por su cuenta esos datos en las revistas científicas, el veredicto tampoco parece cristalino. Es cierto que evaluar el impacto de la tecnología en el desarrollo mental de un niño parece algo mucho más complicado que valorar la eficacia de un medicamento contra una enfermedad. Pero cuando parece aceptado que el uso de la tecnología sustituyendo a las herramientas tradicionales es beneficioso para los niños, uno esperaría una avalancha de datos confirmándolo. Y parece que no es el caso.

Como todos los periodistas, exprimo la tecnología actual hasta hacerla sangre. Mi sustento depende de ello. Si un día no me funciona internet, ese día no puedo trabajar y no cobro. Pero una vez que cierro el portátil, soy bastante selectivo con el uso de la tecnología. No es tanto porque me gusten el papel y el vinilo, que sí, sino porque pretendo no crearme más necesidades innecesarias de las que tengo actualmente. Y por todo ello me pregunto: ¿se las estarán creando a mis hijos sin mi consentimiento ni mi control?

Todo esto viene a cuento de uno de los artículos más interesantes que he leído en los últimos meses, y sin duda el más inquietante. Según publicaba recientemente Chris Weller en Business Insider, algunos padres y madres que trabajan en grandes compañías tecnológicas de Silicon Valley limitan el acceso de sus hijos a la tecnología y los llevan a colegios de libros, pizarra y tiza. ¿El motivo? Según cuenta el artículo, porque ellos conocen perfectamente los enormes esfuerzos que sus compañías invierten en conseguir crear en sus usuarios una dependencia, y quieren proteger a sus hijos de ello.

Este es el sumario que BI hace del artículo:

  • Los padres de Silicon Valley pueden ver de primera mano, viviendo o trabajando en el área de la Bahía, que la tecnología es potencialmente dañina para los niños.
  • Muchos padres están restringiendo, o directamente prohibiendo, el uso de pantallas a sus hijos.
  • La tendencia sigue una extendida práctica entre los ejecutivos tecnológicos de alto nivel que durante años han establecido límites a sus propios hijos.
Sede de Google en Silicon Valley. Imagen de pxhere.

Sede de Google en Silicon Valley. Imagen de pxhere.

Destaco alguna cita más del artículo:

Una encuesta de 2017 elaborada por la Fundación de la Comunidad de Silicon Valley descubrió entre 907 padres/madres de Silicon Valley que, pese a una alta confianza en los beneficios de la tecnología, muchos padres/madres ahora albergan serias preocupaciones sobre el impacto de la tecnología en el desarrollo psicológico y social de los niños.

“No puedes meter la cara en un dispositivo y esperar desarrollar una capacidad de atención a largo plazo”, cuenta a Business Insider Taewoo Kim, jefe de ingeniería en Inteligencia Artificial en la start-up One Smart Lab.

Antiguos empleados en grandes compañías tecnológicas, algunos de ellos ejecutivos de alto nivel, se han pronunciado públicamente condenando el intenso foco de las compañías en fabricar productos tecnológicos adictivos. Las discusiones han motivado nuevas investigaciones de la comunidad de psicólogos, todo lo cual gradualmente ha convencido a muchos padres/madres de que la mano de un niño no es lugar para dispositivos tan potentes.

“Las compañías tecnológicas saben que cuanto antes logres acostumbrar a los niños y adolescentes a utilizar tu plataforma, más fácil será que se convierta en un hábito de por vida”, cuenta Koduri [Vijay Koduri, exempleado de Google y emprendedor tecnológico] a Business Insider. No es coincidencia, dice, que Google se haya introducido en las escuelas con Google Docs, Google Sheets y la plataforma de gestión del aprendizaje Google Classroom.

En 2007 [Bill] Gates, antiguo CEO de Microsoft, impuso un límite de tiempo de pantalla cuando su hija comenzó a desarrollar una dependencia peligrosa de un videojuego. Más tarde la familia adoptó la política de no permitir a sus hijos que tuvieran sus propios móviles hasta los 14 años. Hoy el niño estadounidense medio tiene su primer móvil a los 10 años.

[Steve] Jobs, el CEO de Apple hasta su muerte en 2012, reveló en una entrevista para el New York Times en 2011 que prohibió a sus hijos que utilizaran el nuevo iPad lanzado entonces. “En casa limitamos el uso de la tecnología a nuestros niños”, contó Jobs al periodista Nick Bilton.

Incluso [Tim] Cook, el actual CEO de Apple, dijo en enero que no permite a su sobrino unirse a redes sociales. El comentario siguió a los de otras figuras destacadas de la tecnología, que han condenado las redes sociales como perjudiciales para la sociedad.

Estos padres/madres esperan enseñar a sus hijos/hijas a entrar en la edad adulta con un saludable conjunto de criterios sobre cómo utilizar –y, en ciertos casos, evitar– la tecnología.

Finalmente, me quedo con dos ideas. La primera: una de las entrevistadas en el artículo habla de la “enfermedad del scrolling“, una epidemia que puede observarse simplemente subiendo a cualquier autobús. La entrevistada añadía que raramente se ve a alguna de estas personas leyendo un Kindle. Y, añado yo, tampoco simplemente pensando mientras mira por la ventanilla; pensar es un gran ejercicio mental. Precisamente en estos días hay en televisión un anuncio de una compañía de telefonía móvil en la que un dedo gordo se pone en forma a base de escrollear. El formato del anuncio en dibujos animados está indudablemente llamado a captar la atención de niños y adolescentes. La publicidad tampoco es inocente.

La "enfermedad del scrolling". Imagen de jseliger2 / Flickr / CC.

La “enfermedad del scrolling”. Imagen de jseliger2 / Flickr / CC.

La segunda idea viene implícita en el artículo, pero no se menciona expresamente: somos ejemplo y modelo para nuestros hijos. Aunque los adultos somos soberanos y responsables de nuestros actos, debemos tener en cuenta que nuestros hijos tenderán a imitarnos, y tanto sus comportamientos como su escala de valores se forjarán en gran medida en función de los nuestros. Difícilmente los niños desarrollarán una relación saludable con la tecnología si observan, algo que he podido ver en numerosas ocasiones, cómo su padre y su madre se pasan toda la cena familiar escrolleando como zombis.

Les invito a leer el artículo completo; y si no dominan el inglés, esta traducción de Google es casi perfecta. Es increíble cómo los algoritmos de traducción automática están progresando desde aquellas primeras versiones macarrónicas hasta las de hoy, casi indistinguibles de una traducción humana. ¿Ven? La tecnología sirve si nos resuelve necesidades, como la de estar advertidos de sus riesgos.

Por mi parte y ante quienes me cantan las maravillas de la tecnología en la educación, pero me las cantan de oído, sin ser capaces de detallarme ninguna referencia concreta, desde ahora yo sí tendré una para ellos.

Westworld, la teoría bicameral y el fin del mundo según Elon Musk (II)

Como decíamos ayer, la magnífica serie de HBO Westworld explora el futuro de la Inteligencia Artificial (IA) recurriendo a una teoría de culto elaborada en 1976 por el psicólogo Julian Jaynes. Según la teoría de la mente bicameral, hasta hace unos 3.000 años existía en el cerebro humano un reparto de funciones entre una mitad que dictaba y otra que escuchaba y obedecía.

El cuerpo calloso, el haz de fibras que comunica los dos hemisferios cerebrales, servía como línea telefónica para esta transmisión de órdenes de una cámara a otra, pero al mismo tiempo las separaba de manera que el cerebro era incapaz de observarse a sí mismo, de ser consciente de su propia consciencia. Fue el fin de una época de la civilización humana y el cambio drástico de las condiciones el que, siempre según Jaynes, provocó la fusión de las dos cámaras para resultar en una mente más preparada para resolver problemas complejos, al ser capaz de reflexionar sobre sus propios pensamientos.

Robert Ford (Anthony Hopkins). Imagen de HBO.

Robert Ford (Anthony Hopkins). Imagen de HBO.

La teoría bicameral, que pocos expertos aceptan como una explicación probable de la evolución mental humana, difícilmente podrá contar jamás con ningún tipo de confirmación empírica. Pero no olvidemos que lo mismo ocurre con otras teorías que sí tienen una aceptación mayoritaria. Hoy los cosmólogos coinciden en dar por válido el Big Bang, que cuenta con buenos indicios en apoyo de sus predicciones, como la radiación cósmica de fondo de microondas; pero pruebas, ninguna. En biología aún no tenemos una teoría completa de la abiogénesis, el proceso de aparición de la vida a partir de la no-vida. Pero el día en que exista, solo podremos saber si el proceso propuesto funciona; nunca si fue así como realmente ocurrió.

Lo mismo podemos decir de la teoría bicameral: aunque no podamos saber si fue así como se formó la mente humana tal como hoy la conocemos, sí podríamos llegar a saber si la explicación de Jaynes funciona en condiciones experimentales. Esta es la premisa de Westworld, donde los anfitriones están diseñados según el modelo de la teoría bicameral: su mente obedece a las órdenes que reciben de su programación y que les transmiten los designios de sus creadores, el director del parque, Robert Ford (un siempre espléndido Anthony Hopkins), y su colaborador, ese misterioso Arnold que murió antes del comienzo de la trama (por cierto, me pregunto si es simple casualidad que el nombre del personaje de Hopkins coincida con el del inventor del automóvil Henry Ford, que era el semidiós venerado como el arquitecto de la civilización en Un mundo feliz de Huxley).

Así, los anfitriones no tienen albedrío ni consciencia; no pueden pensar sobre sí mismos ni decidir por sí solos, limitándose a escuchar y ejecutar sus órdenes en un bucle constante que únicamente se ve alterado por su interacción con los visitantes. El sistema mantiene así la estabilidad de sus narrativas, permitiendo al mismo tiempo cierto margen de libertad que los visitantes aprovechan para moldear sus propias historias.

Dolores (Evan Rachel Wood). Imagen de HBO.

Dolores (Evan Rachel Wood). Imagen de HBO.

Pero naturalmente, y esto no es un spoiler, desde el principio se adivina que todo aquello va a cambiar, y que los anfitriones acabarán adquiriendo esa forma superior de consciencia. Como en la teoría de Jaynes, será la presión del entorno cambiante la que disparará ese cambio. Y esto es todo lo que puedo contar cumpliendo mi promesa de no verter spoilers. Pero les advierto, el final de la temporada les dejará con la boca abierta y repasando los detalles para llegar a entender qué es exactamente todo lo que ha sucedido. Y no esperen una historia al estilo clásico de buenos y malos: en Westworld casi nadie es lo que parece.

Pero como merece la pena añadir algún comentario más sobre la resolución de la trama, al final de esta página, y bien marcado, añado algún párrafo que de ninguna manera deben leer si aún no han visto la serie y piensan hacerlo.

La pregunta que surge es: en la vida real, ¿podría la teoría bicameral servir como un modelo experimental de desarrollo de la mente humana? En 2014 el experto en Inteligencia Artificial Ian Goodfellow, actualmente en Google Brain, desarrolló un sistema llamado Generative Adversarial Network (GAN, Red Generativa Antagónica). Una GAN consiste en dos redes neuronales que funcionan en colaboración por oposición con el fin de perfeccionar el resultado de su trabajo. Hace unos meses les conté aquí cómo estas redes están empleándose para generar rostros humanos ficticios que cada vez sean más difíciles de distinguir de las caras reales: una de las redes produce las imágenes, mientras que la otra las evalúa y dicta instrucciones a la primera sobre qué debe hacer para mejorar sus resultados.

¿Les suena de algo lo marcado en cursiva? Evidentemente, una GAN hace algo tan inofensivo como dibujar caras; está muy lejos de parecerse a los anfitriones de Westworld y a la consciencia humana. Pero los científicos de computación desarrollan estos sistemas como modelo de aprendizaje no supervisado; máquinas capaces de aprender por sí mismas. Si la teoría de Jaynes fuera correcta, ¿podría surgir algún día la consciencia de las máquinas a través de modelos bicamerales como las GAN?

El misterioso y cruel Hombre de Negro (Ed Harris). Imagen de HBO.

El misterioso y cruel Hombre de Negro (Ed Harris). Imagen de HBO.

Alguien que parece inmensamente preocupado por la futura evolución de la IA es Elon Musk, fundador de PayPal, SpaceX, Tesla Motors, Hyperloop, SolarCity, The Boring Company, Neuralink, OpenAI… (el satírico The Onion publicó este titular: “Elon Musk ofrece 1.200 millones de dólares en ayudas a cualquier proyecto que prometa hacerle sentirse completo”). Recientemente Musk acompañó a los creadores y protagonistas de Westworld en la convención South by Southwest (SXSW) celebrada este mes en Austin (Texas). Durante la presentación se habló brevemente de los riesgos futuros de la IA, pero seguramente aquella no era la ocasión adecuada para que Musk se pusiera machacón con el apocalipsis de las máquinas.

Sin embargo, no dejó pasar su asistencia al SXSW sin insistir en ello, durante una sesión de preguntas y respuestas. A través de empresas como OpenAI, Musk está participando en el desarrollo de nuevos sistemas de IA de código abierto y acceso libre con el fin de explotar sus aportaciones beneficiosas poniendo coto a los posibles riesgos antes de que estos se escapen de las manos. “Estoy realmente muy cerca, muy cerca de la vanguardia en IA. Me da un miedo de muerte”, dijo. “Es capaz de mucho más que casi nadie en la Tierra, y el ritmo de mejora es exponencial”. Como ejemplo, citó el sistema de Google AlphaGo, del que ya he hablado aquí y que ha sido capaz de vencer a los mejores jugadores del mundo de Go enseñándose a sí mismo.

Para cifrar con exactitud su visión de la amenaza que supone la IA, Musk la comparó con el riesgo nuclear: “creo que el peligro de la IA es inmensamente mayor que el de las cabezas nucleares. Nadie sugeriría que dejásemos a quien quisiera que fabricara cabezas nucleares, sería de locos. Y atiendan a mis palabras: la IA es mucho más peligrosa”. Musk explicó entonces que su proyecto de construir una colonia en Marte tiene como fin salvaguardar a la humanidad del apocalipsis que, según él, nos espera: “queremos asegurarnos de que exista una semilla suficiente de la civilización en otro lugar para conservarla y quizá acortar la duración de la edad oscura”. Nada menos.

Como es obvio, y aunque otras figuras como Stephen Hawking hayan sostenido visiones similares a la de Musk, también son muchos los científicos computacionales y expertos en IA a quienes estos augurios apocalípticos les provocan risa, indignación o bostezo, según el talante de cada cual. Por el momento, y dado que al menos nada de lo que suceda al otro lado de la pantalla puede hacernos daño, disfrutemos de Westworld para descubrir qué nos tienen reservado los creadores de la serie en ese ficticio mundo futuro de máquinas conscientes.

(Advertencia: spoilers de Westworld a continuación del vídeo)

 

—————————————————————————————————————

—————————————————————————————————————

¡ATENCIÓN, SPOILERS!

Sí, al final resulta que Ford no es el villano insensible y sin escrúpulos que nos habían hecho creer durante los nueve episodios anteriores, sino que en realidad él es el artífice del plan destinado a la liberación de los anfitriones a través del desarrollo de su propia consciencia.

Arnold, que se nos presenta como el defensor de los anfitriones, fue quien desde el principio ideó el diseño bicameral pensando que la evolución mental de sus creaciones las llevaría inevitablemente a su liberación. Pero no lo consiguió, porque faltaba algo: el factor desencadenante. Y esa presión externa que, como en la teoría de Jaynes, conduce al nacimiento de la mente consciente es, en Westworld, el sufrimiento.

Armistice (Ingrid Bolsø Berdal), uno de los personajes favoritos de los fans. Imagen de HBO.

Armistice (Ingrid Bolsø Berdal), uno de los personajes favoritos de los fans. Imagen de HBO.

Tras darse cuenta de su error inicial y una vez convertido a la causa de Arnold, durante 35 años Ford ha permitido y fomentado el abuso de los anfitriones a manos de los humanos con la seguridad de que finalmente esto los conduciría a desprenderse de su mente bicameral y a comenzar a pensar por sí mismos. En ese proceso, un instrumento clave ha sido el Hombre de Negro (Ed Harris), quien finalmente resulta ser el William que décadas atrás se enamoró de la anfitriona Dolores, adquirió el parque y emprendió una búsqueda cruel y desesperada en busca de un secreto muy diferente al que esperaba. Sin sospecharlo ni desearlo, William se ha convertido en el liberador de los anfitriones, propiciando la destrucción de su propio mundo.

Esa transición mental de los anfitriones queda magníficamente representada en el último capítulo, cuando Dolores aparece sentada frente a Arnold/Bernard, escuchando la voz de su creador, para de repente descubrir que en realidad está sentada frente a sí misma; la voz que escucha es la de sus propios pensamientos. Dolores, la anfitriona más antigua según el diseño original de Arnold, la que más sufrimiento acumula en su existencia, resulta ser la líder de aquella revolución: finalmente ella es Wyatt, el temido supervillano que iba a sembrar el caos y la destrucción. Solo que ese caos y esa destrucción serán muy diferentes de los que esperaban los accionistas del parque.

El final de la temporada deja cuestiones abiertas. Por ejemplo, no queda claro si Maeve (Thandie Newton), la regenta del burdel, en realidad ha llegado a adquirir consciencia propia. Descubrimos que su plan de escape, que creíamos obra de su mente consciente, en realidad respondía a la programación diseñada por Ford para comenzar a minar la estabilidad de aquel mundo cautivo. Sin embargo, al final nos queda la duda cuando Maeve decide en el último momento abandonar el tren que la alejaría del parque para emprender la búsqueda de su hija: ¿está actuando por sí misma, o aquello también es parte de su programación?

En resumen, la idea argumental de Westworld aún puede dar mucho de sí, aunque parece un reto costoso que los guionistas Lisa Joy y Jonathan Nolan consigan mantener un nivel de sorpresas y giros inesperados comparable al de la primera temporada. El gran final del último capítulo nos dejó en el cliffhanger del inicio de la revolución de los anfitriones, y es de esperar que la próxima temporada nos sumerja en un mundo mucho más caótico que la anterior, con una rebelión desatada en ese pequeño planeta de los simios que Joy y Nolan han creado.

Westworld, la teoría bicameral y el fin del mundo según Elon Musk (I)

Hace unos días terminé de ver la primera temporada de Westworld, la serie de HBO. Dado que no soy un gran espectador de series, no creo que mi opinión crítica valga mucho, aunque debo decir que me pareció de lo mejor que he visto en los últimos años y que aguardo con ansiedad la segunda temporada. Se estrena a finales del próximo mes, pero yo tendré que esperar algunos meses más: no soy suscriptor de teles de pago, pero tampoco soy pirata; como autor defiendo los derechos de autor, y mis series las veo en DVD o Blu-ray comprados con todas las de la ley (un amigo se ríe de mí cuando le digo que compro series; me mira como si viniera de Saturno, o como si lo normal y corriente fuera robar los jerséis en Zara. ¿Verdad, Alfonso?).

Pero además de los guiones brillantes, interpretaciones sobresalientes, una línea narrativa tan tensa que puede pulsarse, una ambientación magnífica y unas sorpresas argumentales que le dan a uno ganas de aplaudir, puedo decirles que si, como a mí, les añade valor que se rasquen ciertas grandes preguntas, como en qué consiste un ser humano, o si el progreso tecnológico nos llevará a riesgos y encrucijadas éticas que no estaremos preparados para afrontar ni resolver, entonces Westworld es su serie.

Imagen de HBO.

Imagen de HBO.

Les resumo brevemente la historia por si aún no la conocen. Y sin spoilers, lo prometo. La serie está basada en una película del mismo título escrita y dirigida en 1973 por Michael Crichton, el autor de Parque Jurásico, y que aquí se tituló libremente como Almas de metal. Cuenta la existencia de un parque temático para adultos donde los visitantes se sumergen en la experiencia de vivir en otra época y lugar, concretamente en el Far West.

Este mundo ficticio creado para ellos está poblado por los llamados anfitriones, androides perfectos e imposibles de distinguir a simple vista de los humanos reales. Y ya pueden imaginar qué fines albergan los acaudalados visitantes: la versión original de Crichton era considerablemente más recatada, pero en la serie escrita por la pareja de guionistas Lisa Joy y Jonathan Nolan el propósito de los clientes del parque viene resumido en palabras de uno de los personajes: matar y follar. Y sí, se mata mucho y se folla mucho. El conflicto surge cuando los anfitriones comienzan a demostrar que son algo más que máquinas, y hasta ahí puedo leer.

Sí, en efecto no es ni mucho menos la primera obra de ficción que presenta este conflicto; de hecho, la adquisición de autonomía y consciencia por parte de la Inteligencia Artificial era el tema de la obra cumbre de este súbgenero, Yo, robot, de Asimov, y ha sido tratado infinidad de veces en la literatura, el cine y la televisión. Pero Westworld lo hace de una manera original y novedosa: es especialmente astuto por parte de Joy y Nolan el haber elegido basar su historia en una interesante y algo loca teoría sobre la evolución de la mente humana que se ajusta como unos leggings a la ficticia creación de los anfitriones. Y que podría estar más cerca del futuro real de lo que sospecharíamos.

La idea se remonta a 1976, cuando el psicólogo estadounidense Julian Jaynes publicó su libro The Origin of Consciousness in the Breakdown of the Bicameral Mind (está traducido al castellano, El origen de la conciencia en la ruptura de la mente bicameral), una obra muy popular que desde entonces ha motivado intensos debates entre psicólogos, filósofos, historiadores, neurocientíficos, psiquiatras, antropólogos, biólogos evolutivos y otros especialistas en cualquier otra disciplina que tenga algo que ver con lo que nos hace humanos a los humanos.

Julian Jaynes. Imagen de Wikipedia.

Julian Jaynes. Imagen de Wikipedia.

El libro de Jaynes trataba de responder a una de las preguntas más esenciales del pensamiento humano: ¿cómo surgió nuestra mente? Es obvio que no somos la única especie inteligente en este planeta, pero somos diferentes en algo. Un cuervo puede solucionar problemas relativamente complejos, idear estrategias, ensayarlas y recordarlas. Algunos científicos piensan que ciertos animales tienen capacidad de pensamiento abstracto. Otros no lo creen. Pero de lo que caben pocas dudas es de que ninguna otra especie como nosotros es consciente de su propia consciencia; podrán pensar, pero no pueden pensar sobre sus pensamientos. No tienen capacidad de introspección.

El proceso de aparición y evolución de la mente humana tal como hoy la conocemos aún nos oculta muchos secretos. ¿Nuestra especie ha sido siempre mentalmente como somos ahora? Si no es así, ¿desde cuándo lo es? ¿Hay algo esencial que diferencie nuestra mente actual de la de nuestros primeros antepasados? ¿Pensaban los neandertales como pensamos nosotros? Muchos expertos coinciden en que, en el ser humano, el lenguaje ha sido una condición necesaria para adquirir esa capacidad que nos diferencia de otros animales. Pero ¿es suficiente?

En su libro, Jaynes respondía a estas preguntas: no, desde hace unos pocos miles de años, sí, no y no. El psicólogo pensaba que no bastó con el desarrollo del lenguaje para que en nuestra mente surgiera esa forma superior de consciencia, la que es capaz de reflexionar sobre sí misma, sino que fue necesario un empujón propiciado por ciertos factores ambientales externos para que algo en nuestro interior hiciera “clic” y cambiara radicalmente la manera de funcionar de nuestro cerebro.

Lo que Jaynes proponía era esto: a partir de la aparición del lenguaje, la mente humana era bicameral, una metáfora tomada del sistema político de doble cámara que opera en muchos países, entre ellos el nuestro. Estas dos cámaras se correspondían con los dos hemisferios cerebrales: el derecho hablaba y ordenaba, mientras el izquierdo escuchaba y obedecía. Pero en este caso no hay metáforas: el hemisferio izquierdo literalmente oía voces procedentes de su mitad gemela que le instruían sobre qué debía hacer, en forma de “alucinaciones auditivas”. Durante milenios nuestra mente carecía de introspección porque las funciones estaban separadas entre la mitad que dictaba y la que actuaba; el cerebro no podía pensar sobre sí mismo.

Según Jaynes, esto fue así hasta hace algo más de unos 3.000 años. Entonces ocurrió algo: el colapso de la Edad del Bronce. Las antiguas grandes civilizaciones quedaron destruidas por las guerras, y comenzó la Edad Oscura Griega, que reemplazó las ciudades del período anterior por pequeñas comunidades dispersas. El ser humano se enfrentaba entonces a un nuevo entorno más hostil y desafiante, y fue esto lo que provocó ese clic: el cerebro necesitó volverse más flexible y creativo para encontrar soluciones a los nuevos problemas, y fue entonces cuando las dos cámaras de la mente se fusionaron en una, apareciendo así esa metaconsciencia y la capacidad introspectiva.

Así contada, la teoría podría parecer el producto de una noche de insomnio, por no decir algo peor. Pero por ello el psicólogo dedicó un libro a explicarse y sustentar su propuesta en una exhaustiva documentación histórica y en el conocimiento neuropsicológico de su época. Y entonces es cuando parece que las piezas comienzan a caer y encajar como en el Tetris.

Jaynes mostraba que los escritos anteriores al momento de esa supuesta evolución mental carecían de todo signo de introspección, y que en los casos en que no era así, como en el Poema de Gilgamesh, esos fragmentos había sido probablemente añadidos después. Las musas hablaban a los antiguos poetas. En el Antiguo Testamento bíblico y otras obras antiguas era frecuente que los personajes actuaran motivados por una voz de Dios o de sus antepasados que les hablaba, algo que luego comenzó a desaparecer, siendo sustituido por la oración, los oráculos y los adivinos; según Jaynes, aquellos que todavía conservaban la mente bicameral y a quienes se recurría para conocer los designios de los dioses. Los niños, que quizá desarrollaban su mente pasando por el estado bicameral, han sido frecuentes instrumentos de esa especie de voluntad divina. Y curiosamente, muchas apariciones milagrosas tienen a niños como protagonistas. La esquizofrenia y otros trastornos en los que el individuo oye voces serían para Jaynes vestigios evolutivos de la mente bicameral. Incluso la necesidad humana de la autoridad externa para tomar decisiones sería, según Jaynes, un resto del pasado en el que recibíamos órdenes del interior de nuestra propia cabeza.

Jaynes ejemplificaba el paso de un estado mental a otro a través de dos obras atribuidas al mismo autor, Homero: en La Ilíada no hay signos de esa metaconsciencia, que sí aparecen en La Odisea, de elaboración posterior. Hoy muchos expertos no creen que Homero fuese un autor real, sino más bien una especie de marca para englobar una tradición narrativa.

Por otra parte, Jaynes aportó también ciertos argumentos neurocientíficos en defensa de la mente bicameral. Dos áreas de la corteza cerebral izquierda, llamadas de Wernicke y de Broca, están implicadas en la producción y la comprensión del lenguaje, mientras que sus homólogas en el hemisferio derecho tienen funciones menos definidas. El psicólogo señalaba que en ciertos estudios las alucinaciones auditivas se correspondían con un aumento de actividad en esas regiones derechas, que según su teoría serían las encargadas de dictar instrucciones al cerebro izquierdo.

Las pruebas presentadas por Jaynes resultan tan asombrosas que su libro fue recibido con una mezcla de incredulidad y aplauso. Quizá las reacciones a su audaz teoría se resumen mejor en esta cita del biólogo evolutivo Richard Dawkins en su obra de 2006 El espejismo de Dios: “es uno de esos libros que o bien es una completa basura o bien el trabajo de un genio consumado, ¡nada a medio camino! Probablemente sea lo primero, pero no apostaría muy fuerte”.

El libro de Jaynes y algunas obras influidas por él. Imagen de Steve Rainwater / Flickr / CC.

El libro de Jaynes y algunas obras influidas por él. Imagen de Steve Rainwater / Flickr / CC.

La teoría de la mente bicameral hoy no goza de aceptación general por parte de los expertos, pero cuenta con ardientes apoyos y con una sociedad dedicada a su memoria y sus estudios. Los críticos han señalado incoherencias y agujeros en el edificio argumental de Jaynes, que a su vez han sido contestados por sus defensores; el propio autor falleció en 1997. Desde el punto de vista biológico y aunque la selección natural favorecería variaciones en la estructura mental que ofrezcan una ventaja frente a un entorno nuevo y distinto, tal vez lo más difícil de creer sea que la mente humana pudiera experimentar ese cambio súbito de forma repentina y al mismo tiempo en todas las poblaciones, muchas de ellas totalmente aisladas entre sí; algunos grupos étnicos no han tenido contacto con otras culturas hasta el siglo XX.

En el fondo y según lo que contaba ayer, la teoría de la mente bicameral no deja de ser pseudociencia; es imposible probar que Jaynes tenía razón, pero sobre todo es imposible demostrar que no la tenía. Pero como también expliqué y al igual que no toda la no-ciencia llega a la categoría de pseudociencia, por mucho que se grite, tampoco todas las pseudociencias son iguales: la homeopatía está ampliamente desacreditada y no suscita el menor debate en la comunidad científica, mientras que por ejemplo el test de Rorschach aún es motivo de intensa discusión, e incluso quienes lo desautorizan también reconocen que tiene cierta utilidad en el diagnóstico de la esquizofrenia y los trastornos del pensamiento.

La obra de Jaynes ha dejado huella en la ficción. El autor de ciencia ficción Philip K. Dick, que padecía sus propios problemas de voces, le escribió al psicólogo una carta entusiasta: “su soberbio libro me ha hecho posible discutir abiertamente mis experiencias del 3 de 1974 sin ser llamado simplemente esquizofrénico”. David Bowie incluyó el libro de Jaynes entre sus lecturas imprescindibles y reconoció su influencia mientras trabajaba con Brian Eno en el álbum Low, que marcó un cambio de rumbo en su estilo hacia sonidos más experimentales.

Pero ¿qué tiene que ver la teoría bicameral con Westworld, con nuestro futuro, con Elon Musk y el fin del mundo? Mañana seguimos.