Archivo de la categoría ‘Psicología’

Los detractores extremos de los alimentos transgénicos saben menos, pero piensan que saben más

La frase sobre estas líneas es, tal cual, el título del estudio que vengo a contar hoy. Pocas veces se encuentra un trabajo científico cuyo encabezado exprese de forma tan llana y transparente lo que expone. Así que, ¿para qué buscar otro?

Como conté aquí ayer, la ciencia está cada vez más implicada en las cosas que afectan a la gente, por lo que hoy es inexcusable que cada ciudadano cuente con la suficiente educación científica para entender el mundo que le rodea. Cuando falta esta educación, triunfa el rechazo como mecanismo de defensa frente a lo desconocido, y nos convertimos en fácil objeto de manipulación por parte de quienes siembran bulos y desinformación, sean cuales sean sus fines.

Uno de los ejemplos que mejor ilustran el papel crítico de esta educación es el de los alimentos transgénicos (genéticamente modificados, GM). Probablemente no muchas cuestiones de seguridad biológica han sido tan extensamente investigadas como los efectos de estas variedades vegetales sobre el medio ambiente y la salud humana y animal.

Manifestación antitransgénicos en Chile. Imagen de Mapuexpress Informativo Mapuche / Wikipedia.

Manifestación antitransgénicos en Chile. Imagen de Mapuexpress Informativo Mapuche / Wikipedia.

Como ya conté aquí en su día, en 2016 un informe de 400 páginas elaborado por más de 100 expertos de las academias de ciencia, ingeniería y medicina de EEUU resumió dos años de análisis de casi 900 estudios científicos publicados desde los años 80, cuando las variedades transgénicas comenzaron a cultivarse.

El veredicto era contundente: no existe ninguna prueba de que los cultivos GM sean perjudiciales para la salud humana o animal ni para el medio ambiente. Sin embargo y como aspecto menos favorable, los autores del informe concluían que los beneficios económicos para los agricultores han sido desiguales en diferentes países, lo mismo que el aumento de la producción esperado del uso de estas variedades (aunque otros estudios previos como este y este han mostrado que el balance es positivo tanto en incremento de las cosechas como en beneficios para los agricultores).

Por si estas pruebas no bastaran, en febrero de 2018 un grupo de investigadores del Instituto de Ciencias de la Vida y de la Universidad de Pisa (Italia) publicó un nuevo metaestudio que revisaba más 6.000 estudios previos, elaborados entre 1996 y 2016, para seleccionar específicamente aquellos que comparaban datos de campo rigurosos y extensos sobre el maíz transgénico y el no transgénico.

En consonancia con metaestudios previos, los resultados indicaban que no se han detectado daños medioambientales derivados del cultivo de maíz transgénico, y que se han demostrado “beneficios en términos de aumento de la cantidad y la calidad del grano”, con un incremento en las cosechas de entre un 5,6 y un 24,5% en las plantaciones de las variedades GM (tolerantes a herbicidas o resistentes a insectos).

Sumado a esto, los investigadores apuntaban que el maíz transgénico es una opción más saludable que el convencional, ya que contiene un 28,8% menos de micotoxinas (junto con un 30,6% menos de fumonisina y un 36,5% menos de tricotecenos), compuestos producidos por hongos contaminantes que son nocivos a corto plazo y potencialmente cancerígenos a largo. “Los resultados apoyan el cultivo de maíz GM, sobre todo debido al aumento de la calidad del grano y a la reducción de la exposición humana a micotoxinas”, escribían los autores. A ello se unen estudios previos que han estimado en un 37% la reducción del uso de pesticidas gracias a las variedades GM, lo que también disminuye los restos de estas sustancias en el producto final para el consumo.

Mazorcas de maíz de distintas variedades. Imagen de Asbestos / Wikipedia.

Mazorcas de maíz de distintas variedades. Imagen de Asbestos / Wikipedia.

Pese a todo ello, sería una ingenuidad confiar en que estos estudios u otros miles más consigan por fin disipar la feroz oposición de ciertos colectivos a los alimentos transgénicos. Pero ¿en qué se basa esta cerril negación de la realidad? La respuesta no parece sencilla, teniendo en cuenta que, según algún estudio, las personas defensoras de posturas pseudocientíficas o anticientíficas no tienen necesariamente un nivel educativo inferior al de la población general.

A primera vista, se diría que esto contradice lo que expliqué ayer sobre la necesidad de la educación científica. Pero solo a primera vista: la necesidad no es suficiencia; y en cualquier caso, lo que vienen a revelar estas observaciones es que el nivel medio de formación científica de toda la población en conjunto es deficiente. Y sin embargo, no toda la población en conjunto está abducida por la pseudociencia o la anticiencia.

Para explicar por qué unas personas sí y otras no, los expertos hablan de efectos como el sesgo cognitivo –básicamente, quedarse con lo que a uno le interesa, sin importar siquiera su nivel de credibilidad– o de la mentalidad conspiranoica (sí, esto existe: más información aquí y aquí). Para los conspiranoicos, nunca importará cuántos estudios se publiquen; para ellos, quienes exponemos la realidad científica sobre los alimentos transgénicos (incluido un servidor) estamos sobornados por las multinacionales biotecnológicas, incluso sin prueba alguna y pese a lo absurdo del planteamiento. Y todo hay que decirlo, la conspiranoia también puede ser un negocio muy rentable.

Sin embargo, todo lo anterior no termina de aclararnos una duda: si hablamos en concreto de los cultivos transgénicos y de sus detractores, ¿hasta qué punto estos conocen la ciencia relacionada con aquellos? Podríamos pensar, y creo que yo mismo lo he escrito alguna vez, que un conspiranoico es casi un experto amateur en su conspiranoia favorita, aunque sea con un sesgo cognitivo equivalente a medio cerebro arrancado de cuajo. Pero ¿es así, o es que simplemente creen ser conocedores de una materia que en realidad ignoran?

Precisamente estas son las preguntas que han inspirado el nuevo estudio, dirigido por Philip Fernbach, científico cognitivo especializado en marketing de la Universidad de Colorado (EEUU). Para responderlas, los investigadores han encuestado a más de 3.500 participantes en EEUU, Alemania y Francia, interrogándoles sobre su nivel de aceptación u oposición a los alimentos GM y sobre el conocimiento que ellos creen tener de la materia, contrastando los datos con un examen de nociones sobre ciencia y genética.

Y naturalmente, los resultados son los que ya he adelantado en el título extraído del propio estudio, publicado en la revista Nature Human Behaviour. Los investigadores escriben: “Hemos encontrado que a medida que crece el extremismo en la oposición y el rechazo a los alimentos GM, el conocimiento objetivo sobre ciencia y genética disminuye, pero aumenta la comprensión percibida sobre los alimentos GM. Los detractores extremos son los que menos saben, pero piensan que son los que más saben”.

Curiosamente, sucede lo mismo en los tres países incluidos en el estudio. Pero más curiosamente aún, ocurre algo similar con otro caso que los investigadores han empleado como comparación, el uso de ingeniería genética en terapias génicas destinadas a curar enfermedades. También en este caso quienes más se oponen son quienes menos saben, pero quienes creen saber más.

Más asombroso aún: el estudio confirma resultados previos de otro trabajo publicado en junio de 2018, en el que investigadores de las universidades de Pensilvania, Texas A&M y Utah Valley (EEUU) se hicieron las mismas preguntas sobre los activistas antivacunas y el (inexistente) vínculo entre la vacunación y el autismo en los niños. En aquella ocasión, los autores descubrían que quienes más fuertemente se oponían a las vacunas y defendían su relación con el autismo eran quienes menos sabían sobre las causas del autismo, pero también quienes creían conocer este terreno incluso mejor que los científicos y los médicos especialistas.

Un manifestante antivacunas en un mitin del movimiento ultraconservador estadounidense Tea Party. Imagen de Fibonacci Blue / Flickr / CC.

Un manifestante antivacunas en un mitin del movimiento ultraconservador estadounidense Tea Party. Imagen de Fibonacci Blue / Flickr / CC.

Claro que tantos resultados en la misma dirección no pueden obedecer a la simple casualidad; y es que, de hecho, todos ellos responden a un fenómeno detallado en 1999 por los psicólogos David Dunning y Justin Kruger. El llamado efecto Dunning-Kruger consiste en la incapacidad de valorar el propio conocimiento sobre algo que en realidad se desconoce; o dicho de otro modo, es la ignorancia de la propia ignorancia.

No se aplica solo a las materias científicas: el estudio de Dunning y Kruger describió el efecto aplicado a campos tan diversos como el conocimiento de la gramática inglesa, el razonamiento lógico y la habilidad para el humor. En resumen, el efecto Dunning-Kruger es una denominación más elegante y científica para lo que en este país viene conociéndose de forma vulgar e insultante como cuñadismo.

Según Fernbach, esta “psicología del extremismo” es difícilmente curable, ya que se da la paradoja de que quienes más necesitan conocimientos son quienes menos dispuestos están a adquirirlos, ya que se creen sobrados de ellos. Por tanto, lo más probable es que continúen cómodamente sumergidos en su ignorada ignorancia; otra razón más para explicar por qué la difusión de la ciencia no basta para acabar con las pseudociencias.

Al final, hemos llegado a descubrir lo que ya había descubierto Sócrates hace más de 24 siglos: el verdadero conocimiento comienza por ser consciente de la propia ignorancia. A partir de ahí, podemos empezar a aprender.

Un estudio investiga el gran ‘spoiler’ de nuestra infancia sobre la «magia» de la Navidad

Siguiendo con mi línea de ayer, ¿por qué la RAE no acepta el término «spoiler«? Parece claro que su uso está muy extendido y que no va a desaparecer ni a ser reemplazado por una traducción. En algún momento los académicos deberán percatarse de que «no me hagas una descripción de un importante desarrollo de la trama de una serie/película/libro que si se conoce de antemano puede reducir la sorpresa o el suspense para quien la ve o lee por primera vez» (según la definición del diccionario de inglés de Oxford) es una frase que sencillamente no va a ocurrir (no, «no me cuentes el final» no es equivalente, ya que los spoilers no tienen por qué referirse necesariamente al final).

Pero en fin, a lo que voy: uno de los spoilers más memorables de la realidad de nuestras vidas es el que nos llega durante la infancia y que nos desvela cuál es la maquinaria real de esa magia de la Navidad. Es una revelación de tal trascendencia que muchos recuperamos aquella memoria durante toda nuestra vida, y la compartimos: y tú, ¿cómo te enteraste?

Imagen de pixabay.

Imagen de pixabay.

Sin embargo y curiosamente, ha sido una experiencia relativamente ignorada por los estudios, hasta que el psicólogo Chris Boyle, de la Universidad de Exeter (Reino Unido), decidió emprender la primera gran encuesta. La Exeter Santa Survey, actualmente en progreso, «tiene como objetivo obtener una mejor comprensión de las diferentes creencias que las personas tienen en torno a Papá Noel y a la Navidad», dice la web del proyecto. Por cierto, estoy copiando literalmente en castellano; la encuesta tiene versión en nuestro idioma, por lo que pueden participar si les apetece. Imagino que a Boyle no le importará si en nuestro caso las respuestas se refieren a los Reyes Magos.

Boyle añade: «Mi interés se centra en comprender cómo se siente un niño/a cuando se entera de que Papá Noel xxxxxxxx» (elimino la última parte para no incurrir aquí en ese spoiler). «Por ejemplo, ¿qué edad tenías cuando te enteraste? ¿Viviste la Navidad de forma diferente después de eso? Este proyecto pretende ser una investigación informal sobre el fenómeno de Papá Noel y espero que puedas participar».

Aunque el proyecto está en curso, las 1.200 respuestas ya reunidas han proporcionado a Boyle el suficiente volumen de información para extraer algunas conclusiones parciales. Por ejemplo, la media de edad a la que los niños suelen acceder al secreto mejor guardado de la Navidad: ocho años. Recordemos que la encuesta está dirigida a los adultos, por lo que los datos se refieren a tiempos pasados, no a los actuales. Al menos en mi sola experiencia personal y por lo que veo en mi entorno, hoy puede que este momento se haya retrasado, lo cual es una paradoja en estos tiempos de mayor acceso a la información; paradoja que tal vez se explique porque también son tiempos de mayor sobreprotección de los niños.

En cuanto al cómo, las respuestas son muy variadas. «La causa principal es la acción deliberada o accidental de los padres, pero algunos niños empezaron a unir las piezas por sí mismos a medida que crecían», dice Boyle. El investigador cuenta cómo algunos errores de los padres descubren el pastel: un participante los descubrió disfrutando de las viandas y las bebidas que un rato antes habían colocado para Papá Noel y sus renos. Otro los pilló con las manos en la masa tras el estrépito causado cuando a su padre se le cayó uno de los regalos.

En otros casos la torpeza cayó a cargo de los profesores, como cuando eligieron para interpretar el papel del mismísimo y único Papá Noel a uno de ellos a quien los niños conocían sobradamente. Otro contó a sus alumnos de siete años que en el Polo Norte no vivía nadie, una metedura de pata con difícil vuelta atrás. Pero peor fue el caso de otro profesor que, seguramente sin mala intención, pidió a sus alumnos de siete años que escribieran una redacción sobre cómo descubrieron la verdad sobre Papá Noel.

En casos como estos últimos, los padres pierden el control de la situación, como cuando el rumor comienza a extenderse entre los propios niños. Algunos logran inmunizarse contra lo que consideran un flagrante ejemplo de fake news: un participante contó que a los siete años pegó a otro niño por tratar de convencerle de aquella absurda hipótesis, y continuó creyendo en la versión oficial durante tres años más.

En cuanto a la labor detectivesca de los propios niños, un participante contó que reconoció uno de los regalos para su hermana, que había visto en las semanas previas en la habitación de sus padres. Otro fue lo suficientemente astuto para percatarse de que la caligrafía de Papá Noel y la de su padre eran sospechosamente idénticas, mientras que otro encontró las cartas en la habitación de sus padres después de haber sido presuntamente enviadas a su destinatario. Los niños también ataron cabos cuando unos padres algo despistados dejaron las etiquetas de los precios en los regalos, o firmaron un libro destinado a uno de sus hijos como «mamá y papá».

Imagen de pixabay.

Imagen de pixabay.

Pero sin duda el premio al joven científico lo merece el encuestado que a los nueve años «había aprendido lo suficiente sobre matemáticas, física, viajes y la relación entre el número de niños del planeta y el tamaño del trineo». O el que decidió poner en marcha su propio experimento independiente, enviando una carta sin conocimiento de sus padres; ni uno solo de los juguetes de aquella lista apareció al pie del árbol. O el que notó la imposibilidad de que un hombre notablemente obeso pudiera deslizarse por el hueco de su chimenea… sobre todo, estando encendida.

Por su parte, el premio a la sensatez se lo lleva el niño al cual, a sus ocho años, nadie supo explicar «por qué Papá Noel no llevaba comida a los niños de los países pobres». Finalmente, uno de los casos más curiosos es el del niño de cinco años a quien sus padres tuvieron que tranquilizar porque le aterrorizaba la idea de que un extraño allanara su casa en plena noche.

Quizá la faceta más llamativa del estudio es la que descubre cómo reaccionan los niños cuando conocen la realidad de esa magia navideña: la tercera parte de los encuestados recibieron la noticia con disgusto, pero un 15% se sintieron traicionados por sus padres y un 10% incluso furiosos; a un 30% aquella revelación les minó su confianza en los adultos. «En los últimos dos años me he sentido apabullado por la cantidad de gente cuya confianza resultó afectada», dice Boyle. En el otro extremo están los más pragmáticos, el 65% que prefirió no darse por enterado y seguir actuando como si no hubiera pasado nada.

Lo cual es sin duda una manera bastante conveniente de afrontar esa transición a la madurez; según el estudio de Boyle, a un 34% de los encuestados les encantaría volver a creer en Papá Noel, pero también un 72% de los padres se sienten aliviados de revelar la verdad a sus hijos y, pese a todo, continúan representando esa ceremonia anual dejándose llevar por el juego y la ilusión de estas fechas. Al fin y al cabo, nada nos impide seguir disfrutando de la fantasía… siempre que sepamos distinguirla de la realidad. Y siempre que no confiemos en ella para que nos deje al pie del árbol nada más milagroso que una guitarra nueva, si he sido lo suficientemente bueno este año.

¿Hora de enterrar para siempre a Hans Asperger, médico nazi?

El pediatra austríaco Hans Asperger (1906-1980), cuyo nombre se utiliza desde 1981 para designar un síndrome relacionado con los Trastornos del Espectro del Autismo (TEA), comenzó en 1938 a firmar sus diagnósticos con un «Heil Hitler«. De por sí, alguien podría argumentar que este hecho no es suficiente motivo para descalificar a Asperger: ¿quizá estaría obligado? ¿Pudo ser un trampantojo para mostrar una fachada aceptable ante el régimen nazi que le permitiera proteger a sus pequeños pacientes, como hacía Oskar Schindler cuando agasajaba a los jerarcas del III Reich?

Hans Asperger, circa 1940. Imagen de Wikipedia.

Hans Asperger, circa 1940. Imagen de Wikipedia.

Precisamente el caso de Schindler, si es que la película es fiel a la historia real, sirvió para popularizar a través del cine la figura del personaje con claroscuros frente a la dictadura de Hitler, lejos del clásico esquema de los buenos sin sombras y los malos sin luces. En aquel guion fluía maravillosamente la transición del personaje: desde el especulador sin remordimientos deseoso de lucrarse a costa de la guerra y el sufrimiento, al empresario interesado en defender a los suyos en pro de su propio beneficio, y finalmente al benefactor dispuesto a arruinarse por salvar una vida más.

Después de la Segunda Guerra Mundial y aparte de los juicios como los de Nuremberg, infinidad de personajes de la época fueron sometidos a escrutinio para determinar cuál había sido su relación real con el III Reich. Muchos salieron de aquel proceso legalmente exonerados pero con su reputación comprometida, como el director de orquesta Herbert von Karajan, muy representativo del caso del oportunista que prefirió mirar para otro lado: von Karajan no era nazi ni colaboró de ningún modo con el régimen, pero sí fue miembro del partido y se aprovechó de esta condición para edificar su carrera llevando su música por los países invadidos.

Esta ambigüedad tuvo su propio capítulo en el mundo de la ciencia. Es bien sabido cómo se hizo la vista gorda con el ingeniero Wernher von Braun y otros 1.600 científicos y especialistas nazis, reclutados después de la guerra por el gobierno de EEUU con sus expedientes limpios de polvo y paja. Pero quizá no tan conocido es el hecho de que algunas de las crueles investigaciones llevadas a cabo por los científicos con los prisioneros de los campos de concentración continuaron sirviendo después como referencias en ciertas líneas científicas.

Experimento de hipotermia con un prisionero en el campo de concentración de Dachau. Imagen de Wikipedia.

Experimento de hipotermia con un prisionero en el campo de concentración de Dachau. Imagen de Wikipedia.

Un ejemplo es el efecto de la hipotermia en el cuerpo humano. Con el fin de investigar cómo proteger a los pilotos de la Luftwaffe si caían derribados en el mar, los científicos nazis sumergían a los prisioneros en bañeras de hielo con uniforme de vuelo, cronometrando el tiempo que tardaban en morir. Durante décadas, estudios posteriores sobre esta materia han citado aquellas investigaciones, obviando el pequeño detalle de que los resultados se obtuvieron torturando hasta la muerte a los sujetos humanos.

De cuando en cuando, en los foros científicos resurge el debate sobre la necesidad de terminar de limpiar la ciencia de aquella herencia macabra. Y esta discusión concierne también a ciertos trastornos que aún hoy continúan llevando el nombre de médicos presunta o probadamente relacionados con el régimen nazi. Probablemente el más conocido de estos nombres es el de Asperger.

Pero ¿quién era Hans Asperger? ¿Era un Schindler, o al menos un mero von Karajan? ¿O era en realidad un médico nazi? Durante décadas su figura ha estado envuelta en una neblina de incertidumbre: “la literatura existente sobre el tema ha tendido a minimizar o pasar por alto cualquier implicación [con el régimen nazi], o incluso a postular que Asperger adoptó una posición de resistencia activa”, escribía el mes pasado en la revista Molecular Autism el historiador de la Universidad Médica de Viena (Austria) Herwig Czech.

Sin embargo, según muestra el trabajo de Czech, parece que la versión más ajustada a la realidad es la más terrible. A lo largo de un decenio, Czech ha desenterrado y analizado una vasta documentación sobre el pediatra austríaco que hasta ahora dormía en los archivos, además de reunir y repasar las diversas y a veces discrepantes fuentes ya conocidas. Y de su amplio estudio de 43 páginas se desprende un veredicto contundente. Según resume un editorial que acompaña al estudio de Czech, Asperger “no solo colaboró con los nazis, sino que contribuyó activamente al programa nazi de eugenesia enviando a niños profundamente discapacitados a la clínica Am Spiegelgrund de Viena”.

Am Spiegelgrund es uno de los nombres más infames en la historia de las atrocidades nazis. “Era una clínica que él [Asperger] sabía que participaba en el programa de eutanasia infantil del III Reich, donde se mataba a los niños como parte del objetivo nazi de crear por ingeniería eugenésica una sociedad genéticamente pura a través de la higiene racial y de la eliminación de las vidas consideradas una carga y no merecedoras de vivir”, prosigue el editorial. Como parte del programa de eutanasia Aktion T4, en aquella siniestra institución 789 niños murieron por gas, inyección letal o desnutrición, muertes que en los certificados oficiales se atribuían a la neumonía. La clínica conservó en tarros los cerebros de cientos de niños para su estudio.

Memorial en Viena por los niños asesinados por el régimen nazi en Am Spiegelgrund. Imagen de Haeferl / Wikipedia.

Memorial en Viena por los niños asesinados por el régimen nazi en Am Spiegelgrund. Imagen de Haeferl / Wikipedia.

La investigación de Czech no descubre, ni el historiador pretende alegar, que Asperger participara directamente en las muertes de aquellos niños. Pero con diagnósticos “marcadamente duros”, como calificar a un niño de “carga insoportable”, el pediatra recomendaba el internamiento de los pequeños en Am Spiegelgrund, donde sabía que muchos de ellos eran asesinados. La jerarquía nazi consideraba a Asperger «políticamente irreprochable» y un firme defensor de los principios de higiene racial, y su lealtad al régimen fue recompensada con progresos en su carrera.

Como conclusión principal, Czech señala: “A la luz de la evidencia histórica, la narrativa de Asperger como destacado oponente del Nacional Socialismo y valiente defensor de sus pacientes contra la eutanasia nazi y otras medidas de higiene racial no se sostiene”.

Por si no fueran pruebas suficientes, la publicación del estudio de Czech ha coincidido con la del libro de Edith Sheffer Asperger’s Children: The Origins of Autism in Nazi Vienna, que expone una tesis similar: “Asperger no solo estuvo implicado en las políticas raciales del III Reich de Hitler, sino que además fue cómplice en el asesinato de niños”.

Recientemente se ha informado de que en la nueva versión –que entra en vigor este mes– de la Clasificación Internacional de Enfermedades (CIE) de la Organización Mundial de la Salud (OMS), una de las dos referencias globales utilizadas por la psiquiatría, desaparece definitivamente el diagnóstico de Síndrome de Asperger, pasando a fusionarse dentro de los TEA. Algunas personas diagnosticadas con Asperger van a echar de menos este epónimo, algo comprensible después de una vida acostumbrados a él. Pero la decisión adoptada por la OMS, que responde a motivos clínicos, va a evitar algo que para otros muchos sí puede ser una carga insoportable: llevar en su condición el nombre de quien mandaba a los niños al exterminio.

¿Dormir con tu perro es malo? La opinión experta, el estudio y el estudio científico

Quienes se dedican a analizar cómo funciona el panorama informativo en esta era de las redes sociales suelen insinuar que nos encontramos frente a un embrollo de p…; perdón, quiero decir, frente a un embrollo de considerables dimensiones. Suelen referirse a ello con términos como crisis de la autoridad de los expertos, o algo similar. O sea, que el valor que se otorga al mensaje ya no depende tanto del emisor (su cualificación profesional y su credibilidad como experto), sino del receptor (sus inclinaciones personales, normalmente ideológicas).

No pretendo entrar en fangos políticos, pero me entenderán con un ejemplo sencillo y muy popular: para algunos, el actor Willy Toledo es un intelectual preclaro, mientras que para otros es eso que ahora llaman un cuñado, o algo peor. Pero lo relevante del caso no es qué bando tiene la razón, sino que ambas valoraciones son independientes de los méritos y las cualificaciones que puedan avalar al actor como pensador político; yo no los conozco, y dudo que tampoco muchos de quienes le aplauden o le denostan, que en cualquier caso contribuyen por igual a hacer de él y de sus manifestaciones un trending topic. Y trending topic es algo que se define como lo contrario de las reflexiones de un experto y veterano politólogo de prestigio mundial escondidas en la página 27 del suplemento dominical de un periódico.

Ciñéndome al campo que me toca y me interesa, la ciencia, las fake news proliferan en internet sin que las refutaciones objetivas, contundentes e indiscutibles, parezcan servir para que desaparezcan. En algunos casos se trata de falsas noticias curiosas, como aquello que ya conté aquí de que mirar tetas alarga la vida de los hombres. No importa cuántas veces se aclare que la noticia era falsa, y que ni tal estudio ni su supuesta autora existieron jamás; el bulo ha resurgido periódicamente y continuará haciéndolo.

Pero en otros casos no se trata de curiosidades inocuas, sino de falacias que pueden ser muy dañinas, como los falsos riesgos de las vacunas o de los alimentos transgénicos. Ambas creencias han sido refutadas una y otra vez por aquello que de verdad puede refutarlas, los estudios científicos. Pero lo que al final llega a trending topic es la opinión del actor Jim Carrey o del ¿también actor? Chuck Norris.

Se fijarán en que he escrito «los estudios científicos», y no «los estudios» ni «los científicos». Porque en esta era del derrocamiento de la autoridad experta, es imprescindible distinguir entre la opinión de un científico, el estudio y el estudio científico, dado que no todo ello tiene el mismo valor.

Hace unos días mi vecina de blog Melisa Tuya, autora de En busca de una segunda oportunidad (además de otro blog y varios libros), me pasaba una nota de prensa enviada por una empresa que vende colchones (no entro en detalles, pero el comunicado ha sido publicado por algún medio). La compañía en cuestión advertía sobre los riesgos de dormir con tu perro, concluyendo que esta práctica acarrea más desventajas que ventajas. Naturalmente, no hay disimulo: la empresa lanza un colchón específico para perros, y lo que pretende es avalar las bondades de su producto con las maldades de que el animal comparta la misma cama que sus dueños.

Imagen de pxhere.

Imagen de pxhere.

Para apoyar sus proclamas, la compañía ha contratado (obviamente, en estos casos siempre hay un flujo monetario) una opinión experta, la de una veterinaria. La doctora advierte en primer lugar de que los animales deben estar limpios y desparasitados para evitar el riesgo de que el contacto con los humanos en la misma cama (o en cualquier otro lugar, para el caso) pueda favorecer la transmisión de enfermedades. El consejo resulta incuestionable, ya que innumerables estudios científicos han demostrado el contagio de infecciones de animales a humanos, como he contado aquí.

Pero seguidamente la veterinaria entra en un terreno más pantanoso, y es el de los posibles efectos nocivos que el compartir el lecho con los humanos puede ejercer sobre la conducta del animal: que le dificulte la separación de sus dueños o que crea haber conquistado el castillo de la cama y el liderazgo del hogar. Y al fin y al cabo, añade la doctora, el animal no va a ser más feliz por el hecho de dormir junto a sus dueños.

Todo esto está muy bien. Pero ¿dónde están los datos? Afirmar que esta versión zoológica del colecho puede dañar la psicología del animal es una hipótesis razonable. Pero sin aval científico, es solo una hipótesis. O en otras palabras, una opinión. Y aunque sin duda las opiniones de los expertos merecen una mayor consideración que las de quienes no lo son, una proposición científicamente comprobable no tiene valor de verdad hasta que se comprueba científicamente. Y la historia de la ciencia es un reguero de hipótesis fallidas. Puede que dormir con sus dueños altere la conducta del perro. Tanto como puede que no. Pero en ciencia no debe existir el «ex cátedra»: la verdad no está en la opinión de un experto, sino en la opinión de un experto respaldada por los estudios científicos. ¿Los hay? No, no basta con la experiencia propia. En ciencia, no.

Voy ahora al segundo argumento, y es la diferencia entre el estudio y el estudio científico. Hoy estamos inundados de estudios por todas partes. Casi cualquier empresa con el suficiente poderío y una política de marketing emprende estudios: las webs de venta de pisos publican estudios sobre la evolución del precio de la vivienda, los seguros médicos publican estudios sobre el consumo de alcohol en los jóvenes, y hasta las webs porno publican estudios sobre las preferencias sexuales de sus usuarios. Para las empresas, elaborar estudios se ha convertido en una práctica común, quizá porque aumenta su visibilidad y su reputación a ojos del consumidor.

Pero hay algo esencial, crucial, sustancial, básico, y todos los sinónimos son pocos, que distingue a un estudio corporativo de un estudio científico: el primero no pasa otro filtro que el de la propia compañía, que por definición está siempre afectada por un conflicto de intereses. En la inmensa mayoría de los casos, lo que las empresas denominan estudios son lo que antes se llamaba encuestas. Una encuesta es algo muy valioso y necesario, pero no llega a ser un estudio. Para dar el salto de una cosa a otra es preciso pasar de los datos crudos a los cocinados, a la interpretación de los resultados y la formulación de las conclusiones. Y es aquí donde resulta imprescindible lo que los estudios científicos sí tienen, y no los corporativos.

La revisión por pares, o peer review.

Revistas científicas. Imagen de Selena N.B.H. / Flickr / CC.

Revistas científicas. Imagen de Selena N.B.H. / Flickr / CC.

Para que un estudio científico se publique y se difunda, es indispensable que lo aprueben otros científicos expertos en el mismo campo de investigación, elegidos por la revista a la cual se ha enviado el trabajo y que no han participado en su elaboración. Y esto, en contra de lo que quizá podría pensarse, no es un simple trámite, ni mucho menos.

Un trámite, aunque duro de completar, es la aprobación de una tesis doctoral; no conozco un solo caso en que una tesis doctoral se haya suspendido (los habrá, pero no los conozco). El tribunal lo escoge el propio doctorando, normalmente entre aquellos investigadores con los que ya tiene una relación previa, y la calificación estándar es sobresaliente cum laude. No se dejen engañar por alguien que presuma de haber obtenido un sobresaliente cum laude en su tesis doctoral: es la nota habitual, también para este que suscribe.

Pero un caso radicalmente opuesto es el de los estudios científicos. No conozco ningún caso en que un estudio se haya aprobado a la primera (y en este caso dudo que los haya, salvo cuando hay trampa, como en el caso de Luc Montagnier que conté aquí). Los revisores o referees destripan los estudios, los machacan, los pulverizan, los apalizan hasta dejarlos reducidos a pulpa. Todo estudio se enfrenta a un largo calvario y a una cadena de revisiones y rechazos antes de encontrar finalmente su hueco en las páginas de una publicación científica, si es que lo encuentra.

Naturalmente, hay corruptelas y favoritismos; los revisores no tratan por igual un estudio escrito por un tal Francis Mojica de la Universidad de Alicante que otro firmado por Eric Lander, director del Instituto Broad del MIT y la Universidad de Harvard, y los Mojica de este mundo dependen de que los Lander de este mundo acaben abriéndoles las puertas al reconocimiento de su trabajo. Por supuesto, también hay estudios fraudulentos, como el de Andrew Wakefield, el médico que se inventó el vínculo entre vacunas y autismo; falsificar un estudio científico es relativamente fácil. Pero estas anomalías son contaminaciones del factor humano, no errores del sistema.

Por último, en años recientes se ha impuesto además el requisito de que los investigadores firmantes de los estudios científicos declaren sus posibles conflictos de intereses, como fuentes de financiación o participación de una manera u otra en cualquier tipo de entidad. A un científico que recibe financiación de un fabricante de refrescos no se le impide publicar un estudio que presenta algún beneficio del consumo de azúcar (suponiendo que lo hubiera), siempre que el trabajo sea riguroso y los datos sean sólidos, pero debe declarar este conflicto de intereses, que aparecerá publicado junto a su nombre al pie de su artículo. Obviamente esto no ocurre en los estudios corporativos, pero tampoco en las opiniones de (en este caso incluso hablar de «presuntos» es una exageración) expertos cuando cobran abultadas cantidades por anunciar un pan de molde «100% natural».

El mensaje final es: cuidado con las referencias a expertos y estudios. En el terreno de la ciencia, para valorar la credibilidad de una afirmación hay que diseccionar escrupulosamente el nivel de rigor científico de la fuente original. Y si hay pasta de por medio.

Pero si ustedes han llegado aquí para saber si es bueno o no dormir con un perro, y ateniéndonos a los estudios científicos, la respuesta es que aún no hay datos suficientes: una revisión publicada en septiembre de 2017 por investigadores australianos dice que «mientras que las prácticas de colecho adulto-adulto y progenitor-hijo/a se han investigado bien, dormir o compartir la cama con animales ha sido relativamente ignorado [por los estudios]». El trabajo presenta posibles pros y contras basándose en los escasos estudios científicos previos, proponiendo que el colecho con hijos y el que se practica con animales de compañía «comparten factores comunes […] y a menudo resultan en similares beneficios e inconvenientes». Como conclusión, los investigadores apuntan que se necesita más «investigación empírica». Así pues, que no les vendan motos. O colchones.

Por qué padres y madres de Silicon Valley restringen el uso de móviles a sus hijos

Soy de la opinión de que la tecnología debe servir para resolvernos necesidades, y no para creárnoslas. Por ejemplo, la razón de ser de los fármacos es curarnos enfermedades. No tendría sentido que su fin fuera satisfacer la necesidad de consumirlos, como ocurre en las adicciones.

Es evidente que las necesidades van cambiando con los tiempos, y que su relación con el desarrollo de la tecnología es de doble sentido. Por ejemplo, el trabajo periodístico de hoy sería imposible sin un uso intensivo de la tecnología. Los dispositivos y las herramientas, internet, el correo electrónico o las redes sociales nos permiten cubrir el mundo entero al instante. Hoy el periodismo no podría volver a ser lo que era hace un siglo, pero si quizá las crecientes necesidades de información y comunicación han contribuido a la creación de las herramientas, también la aparición de estas se ha aprovechado para crear una necesidad de la que hoy ya no se puede prescindir.

Sin embargo, en otros casos la situación parece más simple. Nadie tenía realmente la necesidad de estar en contacto permanente con un amplio grupo de personas distantes durante cada minuto del día, en muchos casos ignorando la realidad más próxima. O de estar continuamente exhibiendo detalles de su vida a un amplio grupo de personas distantes durante cada minuto del día, y de estar cada minuto del día comprobando con ansia a cuántas de esas personas distantes les gusta esa exhibición. Si esto puede llegar a considerarse una adicción, según y en qué casos, y si esta adicción puede ser nociva, según y en qué casos, es algo que corresponde analizar a psiquiatras y psicólogos. Pero tratándose de adultos, allá cada cual.

El problema son los niños. Porque ellos no tienen ni la capacidad ni el derecho legal de elegir sus propias opciones, sino que dependen de las nuestras. Y porque sus cerebros están en desarrollo, y lo que nosotros hagamos hoy con sus mentes va a influir poderosamente en lo que ellos mismos puedan mañana hacer con ellas.

Niños con teléfonos móviles. Imagen de National Park Service.

Niños con teléfonos móviles. Imagen de National Park Service.

Muchos colegios, entre ellos el de mis hijos, están cambiando en gran medida el uso de las herramientas tradicionales por las informáticas: libros y cuadernos por iPads, papel por PDF, tinta por táctil, pizarras por pantallas, el contacto personal por el virtual… Bien, ¿no? Hay que aprovechar las últimas tecnologías, son los utensilios de hoy y del futuro que deben aprender a manejar, son nativos digitales, y blablabla…

Aparentemente todo esto solo resulta problemático para quienes preferimos que todas las afirmaciones categóricas de cualquier clase vengan avaladas por datos científicos. Y por desgracia, cuando pedimos que nos dirijan a los datos que demuestran cómo la enseñanza basada en bits es mejor para los niños que la basada en átomos, nadie parece tenerlos a mano ni saber dónde encontrarlos. Lo cual nos deja con la incómoda sensación de que, en realidad, el cambio no se basa en hechos, sino en tendencias. O sea, que el juicio es apriorístico sin datos reales que lo justifiquen: la enseñanza digital es mejor porque… ¡hombre, por favor, cómo no va a serlo!

Lo peor es que, cuando uno decide buscar por su cuenta esos datos en las revistas científicas, el veredicto tampoco parece cristalino. Es cierto que evaluar el impacto de la tecnología en el desarrollo mental de un niño parece algo mucho más complicado que valorar la eficacia de un medicamento contra una enfermedad. Pero cuando parece aceptado que el uso de la tecnología sustituyendo a las herramientas tradicionales es beneficioso para los niños, uno esperaría una avalancha de datos confirmándolo. Y parece que no es el caso.

Como todos los periodistas, exprimo la tecnología actual hasta hacerla sangre. Mi sustento depende de ello. Si un día no me funciona internet, ese día no puedo trabajar y no cobro. Pero una vez que cierro el portátil, soy bastante selectivo con el uso de la tecnología. No es tanto porque me gusten el papel y el vinilo, que sí, sino porque pretendo no crearme más necesidades innecesarias de las que tengo actualmente. Y por todo ello me pregunto: ¿se las estarán creando a mis hijos sin mi consentimiento ni mi control?

Todo esto viene a cuento de uno de los artículos más interesantes que he leído en los últimos meses, y sin duda el más inquietante. Según publicaba recientemente Chris Weller en Business Insider, algunos padres y madres que trabajan en grandes compañías tecnológicas de Silicon Valley limitan el acceso de sus hijos a la tecnología y los llevan a colegios de libros, pizarra y tiza. ¿El motivo? Según cuenta el artículo, porque ellos conocen perfectamente los enormes esfuerzos que sus compañías invierten en conseguir crear en sus usuarios una dependencia, y quieren proteger a sus hijos de ello.

Este es el sumario que BI hace del artículo:

  • Los padres de Silicon Valley pueden ver de primera mano, viviendo o trabajando en el área de la Bahía, que la tecnología es potencialmente dañina para los niños.
  • Muchos padres están restringiendo, o directamente prohibiendo, el uso de pantallas a sus hijos.
  • La tendencia sigue una extendida práctica entre los ejecutivos tecnológicos de alto nivel que durante años han establecido límites a sus propios hijos.
Sede de Google en Silicon Valley. Imagen de pxhere.

Sede de Google en Silicon Valley. Imagen de pxhere.

Destaco alguna cita más del artículo:

Una encuesta de 2017 elaborada por la Fundación de la Comunidad de Silicon Valley descubrió entre 907 padres/madres de Silicon Valley que, pese a una alta confianza en los beneficios de la tecnología, muchos padres/madres ahora albergan serias preocupaciones sobre el impacto de la tecnología en el desarrollo psicológico y social de los niños.

«No puedes meter la cara en un dispositivo y esperar desarrollar una capacidad de atención a largo plazo», cuenta a Business Insider Taewoo Kim, jefe de ingeniería en Inteligencia Artificial en la start-up One Smart Lab.

Antiguos empleados en grandes compañías tecnológicas, algunos de ellos ejecutivos de alto nivel, se han pronunciado públicamente condenando el intenso foco de las compañías en fabricar productos tecnológicos adictivos. Las discusiones han motivado nuevas investigaciones de la comunidad de psicólogos, todo lo cual gradualmente ha convencido a muchos padres/madres de que la mano de un niño no es lugar para dispositivos tan potentes.

«Las compañías tecnológicas saben que cuanto antes logres acostumbrar a los niños y adolescentes a utilizar tu plataforma, más fácil será que se convierta en un hábito de por vida», cuenta Koduri [Vijay Koduri, exempleado de Google y emprendedor tecnológico] a Business Insider. No es coincidencia, dice, que Google se haya introducido en las escuelas con Google Docs, Google Sheets y la plataforma de gestión del aprendizaje Google Classroom.

En 2007 [Bill] Gates, antiguo CEO de Microsoft, impuso un límite de tiempo de pantalla cuando su hija comenzó a desarrollar una dependencia peligrosa de un videojuego. Más tarde la familia adoptó la política de no permitir a sus hijos que tuvieran sus propios móviles hasta los 14 años. Hoy el niño estadounidense medio tiene su primer móvil a los 10 años.

[Steve] Jobs, el CEO de Apple hasta su muerte en 2012, reveló en una entrevista para el New York Times en 2011 que prohibió a sus hijos que utilizaran el nuevo iPad lanzado entonces. «En casa limitamos el uso de la tecnología a nuestros niños», contó Jobs al periodista Nick Bilton.

Incluso [Tim] Cook, el actual CEO de Apple, dijo en enero que no permite a su sobrino unirse a redes sociales. El comentario siguió a los de otras figuras destacadas de la tecnología, que han condenado las redes sociales como perjudiciales para la sociedad.

Estos padres/madres esperan enseñar a sus hijos/hijas a entrar en la edad adulta con un saludable conjunto de criterios sobre cómo utilizar –y, en ciertos casos, evitar– la tecnología.

Finalmente, me quedo con dos ideas. La primera: una de las entrevistadas en el artículo habla de la «enfermedad del scrolling«, una epidemia que puede observarse simplemente subiendo a cualquier autobús. La entrevistada añadía que raramente se ve a alguna de estas personas leyendo un Kindle. Y, añado yo, tampoco simplemente pensando mientras mira por la ventanilla; pensar es un gran ejercicio mental. Precisamente en estos días hay en televisión un anuncio de una compañía de telefonía móvil en la que un dedo gordo se pone en forma a base de escrollear. El formato del anuncio en dibujos animados está indudablemente llamado a captar la atención de niños y adolescentes. La publicidad tampoco es inocente.

La "enfermedad del scrolling". Imagen de jseliger2 / Flickr / CC.

La «enfermedad del scrolling». Imagen de jseliger2 / Flickr / CC.

La segunda idea viene implícita en el artículo, pero no se menciona expresamente: somos ejemplo y modelo para nuestros hijos. Aunque los adultos somos soberanos y responsables de nuestros actos, debemos tener en cuenta que nuestros hijos tenderán a imitarnos, y tanto sus comportamientos como su escala de valores se forjarán en gran medida en función de los nuestros. Difícilmente los niños desarrollarán una relación saludable con la tecnología si observan, algo que he podido ver en numerosas ocasiones, cómo su padre y su madre se pasan toda la cena familiar escrolleando como zombis.

Les invito a leer el artículo completo; y si no dominan el inglés, esta traducción de Google es casi perfecta. Es increíble cómo los algoritmos de traducción automática están progresando desde aquellas primeras versiones macarrónicas hasta las de hoy, casi indistinguibles de una traducción humana. ¿Ven? La tecnología sirve si nos resuelve necesidades, como la de estar advertidos de sus riesgos.

Por mi parte y ante quienes me cantan las maravillas de la tecnología en la educación, pero me las cantan de oído, sin ser capaces de detallarme ninguna referencia concreta, desde ahora yo sí tendré una para ellos.

Westworld, la teoría bicameral y el fin del mundo según Elon Musk (II)

Como decíamos ayer, la magnífica serie de HBO Westworld explora el futuro de la Inteligencia Artificial (IA) recurriendo a una teoría de culto elaborada en 1976 por el psicólogo Julian Jaynes. Según la teoría de la mente bicameral, hasta hace unos 3.000 años existía en el cerebro humano un reparto de funciones entre una mitad que dictaba y otra que escuchaba y obedecía.

El cuerpo calloso, el haz de fibras que comunica los dos hemisferios cerebrales, servía como línea telefónica para esta transmisión de órdenes de una cámara a otra, pero al mismo tiempo las separaba de manera que el cerebro era incapaz de observarse a sí mismo, de ser consciente de su propia consciencia. Fue el fin de una época de la civilización humana y el cambio drástico de las condiciones el que, siempre según Jaynes, provocó la fusión de las dos cámaras para resultar en una mente más preparada para resolver problemas complejos, al ser capaz de reflexionar sobre sus propios pensamientos.

Robert Ford (Anthony Hopkins). Imagen de HBO.

Robert Ford (Anthony Hopkins). Imagen de HBO.

La teoría bicameral, que pocos expertos aceptan como una explicación probable de la evolución mental humana, difícilmente podrá contar jamás con ningún tipo de confirmación empírica. Pero no olvidemos que lo mismo ocurre con otras teorías que sí tienen una aceptación mayoritaria. Hoy los cosmólogos coinciden en dar por válido el Big Bang, que cuenta con buenos indicios en apoyo de sus predicciones, como la radiación cósmica de fondo de microondas; pero pruebas, ninguna. En biología aún no tenemos una teoría completa de la abiogénesis, el proceso de aparición de la vida a partir de la no-vida. Pero el día en que exista, solo podremos saber si el proceso propuesto funciona; nunca si fue así como realmente ocurrió.

Lo mismo podemos decir de la teoría bicameral: aunque no podamos saber si fue así como se formó la mente humana tal como hoy la conocemos, sí podríamos llegar a saber si la explicación de Jaynes funciona en condiciones experimentales. Esta es la premisa de Westworld, donde los anfitriones están diseñados según el modelo de la teoría bicameral: su mente obedece a las órdenes que reciben de su programación y que les transmiten los designios de sus creadores, el director del parque, Robert Ford (un siempre espléndido Anthony Hopkins), y su colaborador, ese misterioso Arnold que murió antes del comienzo de la trama (por cierto, me pregunto si es simple casualidad que el nombre del personaje de Hopkins coincida con el del inventor del automóvil Henry Ford, que era el semidiós venerado como el arquitecto de la civilización en Un mundo feliz de Huxley).

Así, los anfitriones no tienen albedrío ni consciencia; no pueden pensar sobre sí mismos ni decidir por sí solos, limitándose a escuchar y ejecutar sus órdenes en un bucle constante que únicamente se ve alterado por su interacción con los visitantes. El sistema mantiene así la estabilidad de sus narrativas, permitiendo al mismo tiempo cierto margen de libertad que los visitantes aprovechan para moldear sus propias historias.

Dolores (Evan Rachel Wood). Imagen de HBO.

Dolores (Evan Rachel Wood). Imagen de HBO.

Pero naturalmente, y esto no es un spoiler, desde el principio se adivina que todo aquello va a cambiar, y que los anfitriones acabarán adquiriendo esa forma superior de consciencia. Como en la teoría de Jaynes, será la presión del entorno cambiante la que disparará ese cambio. Y esto es todo lo que puedo contar cumpliendo mi promesa de no verter spoilers. Pero les advierto, el final de la temporada les dejará con la boca abierta y repasando los detalles para llegar a entender qué es exactamente todo lo que ha sucedido. Y no esperen una historia al estilo clásico de buenos y malos: en Westworld casi nadie es lo que parece.

Pero como merece la pena añadir algún comentario más sobre la resolución de la trama, al final de esta página, y bien marcado, añado algún párrafo que de ninguna manera deben leer si aún no han visto la serie y piensan hacerlo.

La pregunta que surge es: en la vida real, ¿podría la teoría bicameral servir como un modelo experimental de desarrollo de la mente humana? En 2014 el experto en Inteligencia Artificial Ian Goodfellow, actualmente en Google Brain, desarrolló un sistema llamado Generative Adversarial Network (GAN, Red Generativa Antagónica). Una GAN consiste en dos redes neuronales que funcionan en colaboración por oposición con el fin de perfeccionar el resultado de su trabajo. Hace unos meses les conté aquí cómo estas redes están empleándose para generar rostros humanos ficticios que cada vez sean más difíciles de distinguir de las caras reales: una de las redes produce las imágenes, mientras que la otra las evalúa y dicta instrucciones a la primera sobre qué debe hacer para mejorar sus resultados.

¿Les suena de algo lo marcado en cursiva? Evidentemente, una GAN hace algo tan inofensivo como dibujar caras; está muy lejos de parecerse a los anfitriones de Westworld y a la consciencia humana. Pero los científicos de computación desarrollan estos sistemas como modelo de aprendizaje no supervisado; máquinas capaces de aprender por sí mismas. Si la teoría de Jaynes fuera correcta, ¿podría surgir algún día la consciencia de las máquinas a través de modelos bicamerales como las GAN?

El misterioso y cruel Hombre de Negro (Ed Harris). Imagen de HBO.

El misterioso y cruel Hombre de Negro (Ed Harris). Imagen de HBO.

Alguien que parece inmensamente preocupado por la futura evolución de la IA es Elon Musk, fundador de PayPal, SpaceX, Tesla Motors, Hyperloop, SolarCity, The Boring Company, Neuralink, OpenAI… (el satírico The Onion publicó este titular: «Elon Musk ofrece 1.200 millones de dólares en ayudas a cualquier proyecto que prometa hacerle sentirse completo»). Recientemente Musk acompañó a los creadores y protagonistas de Westworld en la convención South by Southwest (SXSW) celebrada este mes en Austin (Texas). Durante la presentación se habló brevemente de los riesgos futuros de la IA, pero seguramente aquella no era la ocasión adecuada para que Musk se pusiera machacón con el apocalipsis de las máquinas.

Sin embargo, no dejó pasar su asistencia al SXSW sin insistir en ello, durante una sesión de preguntas y respuestas. A través de empresas como OpenAI, Musk está participando en el desarrollo de nuevos sistemas de IA de código abierto y acceso libre con el fin de explotar sus aportaciones beneficiosas poniendo coto a los posibles riesgos antes de que estos se escapen de las manos. «Estoy realmente muy cerca, muy cerca de la vanguardia en IA. Me da un miedo de muerte», dijo. «Es capaz de mucho más que casi nadie en la Tierra, y el ritmo de mejora es exponencial». Como ejemplo, citó el sistema de Google AlphaGo, del que ya he hablado aquí y que ha sido capaz de vencer a los mejores jugadores del mundo de Go enseñándose a sí mismo.

Para cifrar con exactitud su visión de la amenaza que supone la IA, Musk la comparó con el riesgo nuclear: «creo que el peligro de la IA es inmensamente mayor que el de las cabezas nucleares. Nadie sugeriría que dejásemos a quien quisiera que fabricara cabezas nucleares, sería de locos. Y atiendan a mis palabras: la IA es mucho más peligrosa». Musk explicó entonces que su proyecto de construir una colonia en Marte tiene como fin salvaguardar a la humanidad del apocalipsis que, según él, nos espera: «queremos asegurarnos de que exista una semilla suficiente de la civilización en otro lugar para conservarla y quizá acortar la duración de la edad oscura». Nada menos.

Como es obvio, y aunque otras figuras como Stephen Hawking hayan sostenido visiones similares a la de Musk, también son muchos los científicos computacionales y expertos en IA a quienes estos augurios apocalípticos les provocan risa, indignación o bostezo, según el talante de cada cual. Por el momento, y dado que al menos nada de lo que suceda al otro lado de la pantalla puede hacernos daño, disfrutemos de Westworld para descubrir qué nos tienen reservado los creadores de la serie en ese ficticio mundo futuro de máquinas conscientes.

(Advertencia: spoilers de Westworld a continuación del vídeo)

 

—————————————————————————————————————

—————————————————————————————————————

¡ATENCIÓN, SPOILERS!

Sí, al final resulta que Ford no es el villano insensible y sin escrúpulos que nos habían hecho creer durante los nueve episodios anteriores, sino que en realidad él es el artífice del plan destinado a la liberación de los anfitriones a través del desarrollo de su propia consciencia.

Arnold, que se nos presenta como el defensor de los anfitriones, fue quien desde el principio ideó el diseño bicameral pensando que la evolución mental de sus creaciones las llevaría inevitablemente a su liberación. Pero no lo consiguió, porque faltaba algo: el factor desencadenante. Y esa presión externa que, como en la teoría de Jaynes, conduce al nacimiento de la mente consciente es, en Westworld, el sufrimiento.

Armistice (Ingrid Bolsø Berdal), uno de los personajes favoritos de los fans. Imagen de HBO.

Armistice (Ingrid Bolsø Berdal), uno de los personajes favoritos de los fans. Imagen de HBO.

Tras darse cuenta de su error inicial y una vez convertido a la causa de Arnold, durante 35 años Ford ha permitido y fomentado el abuso de los anfitriones a manos de los humanos con la seguridad de que finalmente esto los conduciría a desprenderse de su mente bicameral y a comenzar a pensar por sí mismos. En ese proceso, un instrumento clave ha sido el Hombre de Negro (Ed Harris), quien finalmente resulta ser el William que décadas atrás se enamoró de la anfitriona Dolores, adquirió el parque y emprendió una búsqueda cruel y desesperada en busca de un secreto muy diferente al que esperaba. Sin sospecharlo ni desearlo, William se ha convertido en el liberador de los anfitriones, propiciando la destrucción de su propio mundo.

Esa transición mental de los anfitriones queda magníficamente representada en el último capítulo, cuando Dolores aparece sentada frente a Arnold/Bernard, escuchando la voz de su creador, para de repente descubrir que en realidad está sentada frente a sí misma; la voz que escucha es la de sus propios pensamientos. Dolores, la anfitriona más antigua según el diseño original de Arnold, la que más sufrimiento acumula en su existencia, resulta ser la líder de aquella revolución: finalmente ella es Wyatt, el temido supervillano que iba a sembrar el caos y la destrucción. Solo que ese caos y esa destrucción serán muy diferentes de los que esperaban los accionistas del parque.

El final de la temporada deja cuestiones abiertas. Por ejemplo, no queda claro si Maeve (Thandie Newton), la regenta del burdel, en realidad ha llegado a adquirir consciencia propia. Descubrimos que su plan de escape, que creíamos obra de su mente consciente, en realidad respondía a la programación diseñada por Ford para comenzar a minar la estabilidad de aquel mundo cautivo. Sin embargo, al final nos queda la duda cuando Maeve decide en el último momento abandonar el tren que la alejaría del parque para emprender la búsqueda de su hija: ¿está actuando por sí misma, o aquello también es parte de su programación?

En resumen, la idea argumental de Westworld aún puede dar mucho de sí, aunque parece un reto costoso que los guionistas Lisa Joy y Jonathan Nolan consigan mantener un nivel de sorpresas y giros inesperados comparable al de la primera temporada. El gran final del último capítulo nos dejó en el cliffhanger del inicio de la revolución de los anfitriones, y es de esperar que la próxima temporada nos sumerja en un mundo mucho más caótico que la anterior, con una rebelión desatada en ese pequeño planeta de los simios que Joy y Nolan han creado.

Westworld, la teoría bicameral y el fin del mundo según Elon Musk (I)

Hace unos días terminé de ver la primera temporada de Westworld, la serie de HBO. Dado que no soy un gran espectador de series, no creo que mi opinión crítica valga mucho, aunque debo decir que me pareció de lo mejor que he visto en los últimos años y que aguardo con ansiedad la segunda temporada. Se estrena a finales del próximo mes, pero yo tendré que esperar algunos meses más: no soy suscriptor de teles de pago, pero tampoco soy pirata; como autor defiendo los derechos de autor, y mis series las veo en DVD o Blu-ray comprados con todas las de la ley (un amigo se ríe de mí cuando le digo que compro series; me mira como si viniera de Saturno, o como si lo normal y corriente fuera robar los jerséis en Zara. ¿Verdad, Alfonso?).

Pero además de los guiones brillantes, interpretaciones sobresalientes, una línea narrativa tan tensa que puede pulsarse, una ambientación magnífica y unas sorpresas argumentales que le dan a uno ganas de aplaudir, puedo decirles que si, como a mí, les añade valor que se rasquen ciertas grandes preguntas, como en qué consiste un ser humano, o si el progreso tecnológico nos llevará a riesgos y encrucijadas éticas que no estaremos preparados para afrontar ni resolver, entonces Westworld es su serie.

Imagen de HBO.

Imagen de HBO.

Les resumo brevemente la historia por si aún no la conocen. Y sin spoilers, lo prometo. La serie está basada en una película del mismo título escrita y dirigida en 1973 por Michael Crichton, el autor de Parque Jurásico, y que aquí se tituló libremente como Almas de metal. Cuenta la existencia de un parque temático para adultos donde los visitantes se sumergen en la experiencia de vivir en otra época y lugar, concretamente en el Far West.

Este mundo ficticio creado para ellos está poblado por los llamados anfitriones, androides perfectos e imposibles de distinguir a simple vista de los humanos reales. Y ya pueden imaginar qué fines albergan los acaudalados visitantes: la versión original de Crichton era considerablemente más recatada, pero en la serie escrita por la pareja de guionistas Lisa Joy y Jonathan Nolan el propósito de los clientes del parque viene resumido en palabras de uno de los personajes: matar y follar. Y sí, se mata mucho y se folla mucho. El conflicto surge cuando los anfitriones comienzan a demostrar que son algo más que máquinas, y hasta ahí puedo leer.

Sí, en efecto no es ni mucho menos la primera obra de ficción que presenta este conflicto; de hecho, la adquisición de autonomía y consciencia por parte de la Inteligencia Artificial era el tema de la obra cumbre de este súbgenero, Yo, robot, de Asimov, y ha sido tratado infinidad de veces en la literatura, el cine y la televisión. Pero Westworld lo hace de una manera original y novedosa: es especialmente astuto por parte de Joy y Nolan el haber elegido basar su historia en una interesante y algo loca teoría sobre la evolución de la mente humana que se ajusta como unos leggings a la ficticia creación de los anfitriones. Y que podría estar más cerca del futuro real de lo que sospecharíamos.

La idea se remonta a 1976, cuando el psicólogo estadounidense Julian Jaynes publicó su libro The Origin of Consciousness in the Breakdown of the Bicameral Mind (está traducido al castellano, El origen de la conciencia en la ruptura de la mente bicameral), una obra muy popular que desde entonces ha motivado intensos debates entre psicólogos, filósofos, historiadores, neurocientíficos, psiquiatras, antropólogos, biólogos evolutivos y otros especialistas en cualquier otra disciplina que tenga algo que ver con lo que nos hace humanos a los humanos.

Julian Jaynes. Imagen de Wikipedia.

Julian Jaynes. Imagen de Wikipedia.

El libro de Jaynes trataba de responder a una de las preguntas más esenciales del pensamiento humano: ¿cómo surgió nuestra mente? Es obvio que no somos la única especie inteligente en este planeta, pero somos diferentes en algo. Un cuervo puede solucionar problemas relativamente complejos, idear estrategias, ensayarlas y recordarlas. Algunos científicos piensan que ciertos animales tienen capacidad de pensamiento abstracto. Otros no lo creen. Pero de lo que caben pocas dudas es de que ninguna otra especie como nosotros es consciente de su propia consciencia; podrán pensar, pero no pueden pensar sobre sus pensamientos. No tienen capacidad de introspección.

El proceso de aparición y evolución de la mente humana tal como hoy la conocemos aún nos oculta muchos secretos. ¿Nuestra especie ha sido siempre mentalmente como somos ahora? Si no es así, ¿desde cuándo lo es? ¿Hay algo esencial que diferencie nuestra mente actual de la de nuestros primeros antepasados? ¿Pensaban los neandertales como pensamos nosotros? Muchos expertos coinciden en que, en el ser humano, el lenguaje ha sido una condición necesaria para adquirir esa capacidad que nos diferencia de otros animales. Pero ¿es suficiente?

En su libro, Jaynes respondía a estas preguntas: no, desde hace unos pocos miles de años, sí, no y no. El psicólogo pensaba que no bastó con el desarrollo del lenguaje para que en nuestra mente surgiera esa forma superior de consciencia, la que es capaz de reflexionar sobre sí misma, sino que fue necesario un empujón propiciado por ciertos factores ambientales externos para que algo en nuestro interior hiciera «clic» y cambiara radicalmente la manera de funcionar de nuestro cerebro.

Lo que Jaynes proponía era esto: a partir de la aparición del lenguaje, la mente humana era bicameral, una metáfora tomada del sistema político de doble cámara que opera en muchos países, entre ellos el nuestro. Estas dos cámaras se correspondían con los dos hemisferios cerebrales: el derecho hablaba y ordenaba, mientras el izquierdo escuchaba y obedecía. Pero en este caso no hay metáforas: el hemisferio izquierdo literalmente oía voces procedentes de su mitad gemela que le instruían sobre qué debía hacer, en forma de «alucinaciones auditivas». Durante milenios nuestra mente carecía de introspección porque las funciones estaban separadas entre la mitad que dictaba y la que actuaba; el cerebro no podía pensar sobre sí mismo.

Según Jaynes, esto fue así hasta hace algo más de unos 3.000 años. Entonces ocurrió algo: el colapso de la Edad del Bronce. Las antiguas grandes civilizaciones quedaron destruidas por las guerras, y comenzó la Edad Oscura Griega, que reemplazó las ciudades del período anterior por pequeñas comunidades dispersas. El ser humano se enfrentaba entonces a un nuevo entorno más hostil y desafiante, y fue esto lo que provocó ese clic: el cerebro necesitó volverse más flexible y creativo para encontrar soluciones a los nuevos problemas, y fue entonces cuando las dos cámaras de la mente se fusionaron en una, apareciendo así esa metaconsciencia y la capacidad introspectiva.

Así contada, la teoría podría parecer el producto de una noche de insomnio, por no decir algo peor. Pero por ello el psicólogo dedicó un libro a explicarse y sustentar su propuesta en una exhaustiva documentación histórica y en el conocimiento neuropsicológico de su época. Y entonces es cuando parece que las piezas comienzan a caer y encajar como en el Tetris.

Jaynes mostraba que los escritos anteriores al momento de esa supuesta evolución mental carecían de todo signo de introspección, y que en los casos en que no era así, como en el Poema de Gilgamesh, esos fragmentos había sido probablemente añadidos después. Las musas hablaban a los antiguos poetas. En el Antiguo Testamento bíblico y otras obras antiguas era frecuente que los personajes actuaran motivados por una voz de Dios o de sus antepasados que les hablaba, algo que luego comenzó a desaparecer, siendo sustituido por la oración, los oráculos y los adivinos; según Jaynes, aquellos que todavía conservaban la mente bicameral y a quienes se recurría para conocer los designios de los dioses. Los niños, que quizá desarrollaban su mente pasando por el estado bicameral, han sido frecuentes instrumentos de esa especie de voluntad divina. Y curiosamente, muchas apariciones milagrosas tienen a niños como protagonistas. La esquizofrenia y otros trastornos en los que el individuo oye voces serían para Jaynes vestigios evolutivos de la mente bicameral. Incluso la necesidad humana de la autoridad externa para tomar decisiones sería, según Jaynes, un resto del pasado en el que recibíamos órdenes del interior de nuestra propia cabeza.

Jaynes ejemplificaba el paso de un estado mental a otro a través de dos obras atribuidas al mismo autor, Homero: en La Ilíada no hay signos de esa metaconsciencia, que sí aparecen en La Odisea, de elaboración posterior. Hoy muchos expertos no creen que Homero fuese un autor real, sino más bien una especie de marca para englobar una tradición narrativa.

Por otra parte, Jaynes aportó también ciertos argumentos neurocientíficos en defensa de la mente bicameral. Dos áreas de la corteza cerebral izquierda, llamadas de Wernicke y de Broca, están implicadas en la producción y la comprensión del lenguaje, mientras que sus homólogas en el hemisferio derecho tienen funciones menos definidas. El psicólogo señalaba que en ciertos estudios las alucinaciones auditivas se correspondían con un aumento de actividad en esas regiones derechas, que según su teoría serían las encargadas de dictar instrucciones al cerebro izquierdo.

Las pruebas presentadas por Jaynes resultan tan asombrosas que su libro fue recibido con una mezcla de incredulidad y aplauso. Quizá las reacciones a su audaz teoría se resumen mejor en esta cita del biólogo evolutivo Richard Dawkins en su obra de 2006 El espejismo de Dios: «es uno de esos libros que o bien es una completa basura o bien el trabajo de un genio consumado, ¡nada a medio camino! Probablemente sea lo primero, pero no apostaría muy fuerte».

El libro de Jaynes y algunas obras influidas por él. Imagen de Steve Rainwater / Flickr / CC.

El libro de Jaynes y algunas obras influidas por él. Imagen de Steve Rainwater / Flickr / CC.

La teoría de la mente bicameral hoy no goza de aceptación general por parte de los expertos, pero cuenta con ardientes apoyos y con una sociedad dedicada a su memoria y sus estudios. Los críticos han señalado incoherencias y agujeros en el edificio argumental de Jaynes, que a su vez han sido contestados por sus defensores; el propio autor falleció en 1997. Desde el punto de vista biológico y aunque la selección natural favorecería variaciones en la estructura mental que ofrezcan una ventaja frente a un entorno nuevo y distinto, tal vez lo más difícil de creer sea que la mente humana pudiera experimentar ese cambio súbito de forma repentina y al mismo tiempo en todas las poblaciones, muchas de ellas totalmente aisladas entre sí; algunos grupos étnicos no han tenido contacto con otras culturas hasta el siglo XX.

En el fondo y según lo que contaba ayer, la teoría de la mente bicameral no deja de ser pseudociencia; es imposible probar que Jaynes tenía razón, pero sobre todo es imposible demostrar que no la tenía. Pero como también expliqué y al igual que no toda la no-ciencia llega a la categoría de pseudociencia, por mucho que se grite, tampoco todas las pseudociencias son iguales: la homeopatía está ampliamente desacreditada y no suscita el menor debate en la comunidad científica, mientras que por ejemplo el test de Rorschach aún es motivo de intensa discusión, e incluso quienes lo desautorizan también reconocen que tiene cierta utilidad en el diagnóstico de la esquizofrenia y los trastornos del pensamiento.

La obra de Jaynes ha dejado huella en la ficción. El autor de ciencia ficción Philip K. Dick, que padecía sus propios problemas de voces, le escribió al psicólogo una carta entusiasta: «su soberbio libro me ha hecho posible discutir abiertamente mis experiencias del 3 de 1974 sin ser llamado simplemente esquizofrénico». David Bowie incluyó el libro de Jaynes entre sus lecturas imprescindibles y reconoció su influencia mientras trabajaba con Brian Eno en el álbum Low, que marcó un cambio de rumbo en su estilo hacia sonidos más experimentales.

Pero ¿qué tiene que ver la teoría bicameral con Westworld, con nuestro futuro, con Elon Musk y el fin del mundo? Mañana seguimos.

 

¿Ver porno daña el cerebro? No se sabe, pero el titular consigue clics

Hace unos días escribí un artículo a propósito de un estudio reciente que ha investigado si los jóvenes en España y EEUU piensan que su pareja los engaña cuando ve porno (les ahorro el suspense: no, la gran mayoría no lo cree). Y entonces recordé otro estudio publicado hace unos años que por entonces causó un tremendo revuelo cuando los medios difundieron titulares con este mensaje: ver porno reduce el cerebro. Probablemente el más gracioso fue el publicado por Deutsche Welle: «Cerebro de guisante: ver porno online desgastará tu cerebro y lo hará marchitarse».

Evidentemente, ya habrán imaginado que la fórmula elegida por DW para presentar la noticia era un inmenso globo fruto de ese mal por desgracia tan extendido ahora, la feroz competencia de los medios por hacerse con el favor de los clics de los usuarios. Sí, critiquen a los medios por esto, tienen razón y están en su derecho, pero tampoco olviden lo siguiente: lo cierto es que hoy a los medios no les queda otra que sobrevivir a base de clics. Pero los autores de los clics son ustedes, somos todos. Así que hagamos todos un poco de autocrítica. Entre el titular de DW y otro más neutro como «ver porno se correlaciona con ciertas diferencias cerebrales», ¿a cuál le darían su clic?

Pero en fin, a lo que voy. Si les traigo hoy este tema, ya habrán imaginado que no es lo que parece a primera vista. Pero también es cierto que es más complicado de lo que parece a segunda vista. Les resumo el estudio. Lo que hicieron los alemanes Simone Kühn y Jürgen Gallinat fue reclutar por internet a 64 hombres sanos de entre 21 y 45 años y someterlos a un cuestionario sobre sus hábitos de consumo de porno online. A continuación los metieron uno a uno en una máquina de Imagen por Resonancia Magnética Funcional (fMRI), que permite estudiar la estructura y la actividad del cerebro. Los investigadores analizaron tres aspectos: la estructura cerebral, la respuesta del cerebro cuando veían imágenes sexuales y la actividad cerebral en reposo.

Los resultados mostraron que un mayor número de horas de porno a la semana se correlacionaba con una menor cantidad de sustancia gris (lo que más popularmente se conoce como materia gris) asociada a una región concreta del cerebro, el núcleo caudado del estriado en el hemisferio derecho, así como con una menor respuesta a imágenes sexuales en otra región, el putamen izquierdo, y con una menor conectividad entre el caudado derecho y la corteza prefrontal dorsolateral izquierda.

En resumen, sí, se observan ciertas (relativamente pequeñas) diferencias cerebrales que se correlacionan con el número de horas de porno online. Aunque en el estudio se echa de menos la presentación de más datos detallados en figuras y tablas, es posible que los autores no hayan tenido posibilidad de mostrarlos por criterios de formato y espacio de la revista JAMA Psychiatry, aunque podrían haberlos facilitado como material suplementario. Pero los datos que sí muestran son buenos y los resultados se ajustan a los umbrales que hoy se aceptan como estadísticamente significativos. Dentro del campo de los estudios de neuroimagen, el de Kühn y Gallinat parece metodológicamente bastante sólido, incluyendo alguna comprobación extra que les detallaré más abajo.

Pasemos ahora a las conclusiones. Como repito aquí con frecuencia, la penúltima vez hace unos días, correlación no implica causalidad. Una cosa es observar que hay una relación entre dos fenómenos, y otra muy diferente saber si uno causa el otro, si el otro causa el uno, si en realidad bajo los fenómenos observados se esconden otros no considerados que son los verdaderamente relacionados como causa y efecto, o si no es nada de lo anterior y se trata tan solo de una extraña casualidad.

Como les contaba hace unos días, para establecer una relación de causalidad (no casualidad) es necesario tener en cuenta si existe algún mecanismo plausible que pueda explicarla. De lo contrario, y salvo que puedan presentarse pruebas extraordinarias de una relación implausible, se aplica lo que decía el personaje de Sidney Wang en Un cadáver a los postres: «teoría estúpida».

En el caso del estudio de Kühn y Gallinat, sí existe un mecanismo plausible. El cerebro es plástico, cambia todos los días con nuestra experiencia y nuestro aprendizaje. Lo que hacemos, lo que vemos, lo que experimentamos y lo que memorizamos están continuamente remodelando nuestras conexiones neuronales y provocando microcambios que se acumulan y que resultan en macrocambios. Así que en este caso no se aplica el principio de Wang: aprender a tocar el piano, o cambiar de idioma habitual, o tomar drogas de forma habitual, pueden modificar la estructura y la función del cerebro. Ver porno también puede hacerlo.

En concreto, los cambios observados refuerzan la plausibilidad. Las regiones donde aparecen diferencias están implicadas en funciones como el sistema de recompensa y la inihibición. El sistema de recompensa se activa cuando experimentamos sensaciones placenteras, ya sea comer chocolate, ver fotos de nuestros hijos o marcharnos de vacaciones. Los investigadores descubrieron que quienes consumen más porno tienen una menor respuesta del sistema de recompensa ante imágenes sexuales. Digamos que el cerebro está más habituado. Los autores lo equiparan a otros estudios que han encontrado diferencias parecidas en los jugadores de azar o los consumidores de drogas. En cuanto al sistema de inihibición, actúa como freno de nuestra conducta, por lo que quienes ven más porno lo utilizan menos.

Pero en cualquier caso, incluso existiendo una relación plausible, aún no hemos llegado al titular «ver porno reduce el cerebro». Para ello hace falta demostrar el vínculo causal, y como mínimo hay que empezar descartando otras posibilidades. Esta era la conclusión de Kühn y Gallinat en su estudio:

Uno estaría tentado de asumir que la frecuente activación cerebral causada por la exposición a pornografía podría llevar al desgaste y la regulación negativa de la estructura cerebral subyacente, así como de su función, y a una mayor necesidad de estimulación externa del sistema de recompensa y una tendencia a buscar material sexual nuevo y más extremo.

Naturalmente y como es obligado, consideran también la hipótesis recíproca: en lugar de A luego B, B luego A. Es decir, que sean esas diferencias cerebrales las que lleven a ver porno:

Los individuos con menor volumen del estriado pueden necesitar más estimulación externa para experimentar placer y por tanto pueden experimentar el consumo de pornografía como más placentero, lo que a su vez puede llevar a un mayor consumo.

Eso de «uno estaría tentado de asumir» es una fórmula peculiar que aparece en los estudios con bastante frecuencia. Los trabajos científicos tienen que ceñirse a un lenguaje formal y prudente donde nada puede afirmarse o darse por hecho si no se prueba claramente. Cuando un investigador escribe en un estudio «uno estaría tentado de asumir», en realidad lo que quiere decir es: «esto es lo que creo y lo que me gustaría, pero no puedo demostrarlo». De hecho, en una nota de prensa publicada por el Instituto Max Planck, donde se hizo el experimento, los investigadores reconocían que se inclinaban por la primera hipótesis.

Imagen de deradrian / Flickr / CC.

Imagen de deradrian / Flickr / CC.

Esto no implica necesariamente que Kühn y Gallinat estén motivados por una postura contraria al porno. Para un investigador demostrar la segunda hipótesis, que ciertos rasgos cerebrales incitan a consumir más porno, sería un buen resultado. Pero demostrar la primera hipótesis, que ver porno reduce la sustancia gris, aunque sea mínimamente, supondría un bombazo: no solo la fama efímera de los titulares de prensa, sino cientos de citaciones en otros estudios, más financiación para proyectos, puede que alguna oferta de trabajo e incluso quizá una llamada para dar una charla TED.

Con todo, es justo decir que Kühn y Gallinat no se dejaron llevar por sesgos, ni en su estudio ni en sus declaraciones a los periodistas. Lo curioso (no, realmente no lo es) es que bajo los titulares del estilo «ver porno daña el cerebro», los artículos mencionaban también la posibilidad de la segunda hipótesis en palabras de los propios investigadores. Como he dicho arriba, es cuestión de clics.

Pero es evidente que la difusión de la información sí estaba afectada por claros sesgos. Cuando se trata de cosas como el porno, hay sectores que van a presentar toda información de modo condicionado por sus prejuicios. En EEUU, un país de población mayoritariamente creyente y de tendencia política conservadora, algunas webs religiosas y de defensa de la familia se lanzaron a cargar de plomo los titulares sobre los efectos negativos del porno. Curiosamente, la pornografía es uno de los raros casos que pone de acuerdo a grupos de los dos extremos políticos: para los más religiosos y conservadores es inmoral, mientras que la izquierda suele acentuar que el porno degrada a las mujeres y alimenta negocios ilegales de trata y explotación de personas.

Sin embargo y con independencia de la opinión que a cada uno le merezca el porno, la ciencia debe iluminar los hechos. Y las dos hipótesis anteriores no son las únicas en juego; además existe una tercera posibilidad que he mencionado más arriba, y es que las diferencias cerebrales observadas en el estudio obedezcan a otras variables ocultas que no se han considerado en el estudio. Esto se conoce como confounding variables, o variables de confusión.

Un ejemplo lo conté aquí hace unos años, a propósito de un estudio sueco que supuestamente mostraba una relación entre el consumo de Viagra y el desarrollo de melanoma maligno. En aquel caso, los propios investigadores reconocían que tal vez el melanoma no tenía absolutamente nada que ver con la Viagra, sino que quienes más toman este caro fármaco son aquellos con mayor nivel económico y que por tanto disfrutan de más vacaciones al sol; cuya incidencia en el melanoma sí parece suficientemente probada.

En el caso del porno, los propios Kühn y Gallinat se ocuparon de descartar dos posibles factores de confusión, el mayor uso de internet y la adicción al sexo. Las diferencias cerebrales observadas podían deberse realmente no a ver porno, sino a alguno de estos dos rasgos que a su vez podrían asociarse con un mayor consumo de contenidos sexuales. Los resultados muestran que ninguno de estos dos factores parece ser la causa, lo que aumenta el valor del estudio.

El problema es que la lista de posibles factores de confusión puede ser muy amplia, y es difícil descartarlos todos. En la revista Wired, el psicólogo y escritor Christian Jarrett se ocupaba de plantear certeramente un factor muy plausible: dado que fueron los propios participantes en el experimento quienes declararon su consumo de porno online (un aspecto que los propios autores mencionaban como la principal limitación), según Jarrett lo que el estudio realmente revela son las diferencias en el cerebro de quienes dicen ver más porno. Pero aquellos dispuestos a confesar más libremente este hábito pueden ser los más desinhibidos y con menor aversión al riesgo; o sea, precisamente los que muestran los rasgos cerebrales observados. Así, concluía Jarrett, el estudio podría no estar mostrando el efecto del porno en el cerebro, sino la huella cerebral de unos determinados rasgos de personalidad.

Claro que habría otro factor de confusión enormemente obvio. Lo explico con un viejo chiste: un tipo va al médico. «Doctor, vengo a consultarle un extraño problema. Ver porno en internet me pone el pene naranja». «¿Cómo dice, naranja?», replica el médico, sorprendido. «Eso es, doctor», confirma el paciente. «A ver, explíqueme exactamente qué es lo que hace». A lo que el paciente responde: «Pues mire, me siento frente al ordenador con mi bolsa de ganchitos…»

Es decir, es casi evidente que los usuarios de porno generalmente están realizando al mismo tiempo otra tarea manual que también le pega un buen repaso al sistema de recompensa. Y por supuesto, no solamente el estudio de Kühn y Gallinat no puede descartar esta posibilidad, sino que sería muy complicado diseñar un estudio que lo hiciera.

Pero claro, aquí llegamos a otra implicación mucho más espinosa: después de haber conseguido por fin librarnos de tabús y de supercherías sobre la masturbación, como cuando se creía que causaba ceguera, ¿habría alguien dispuesto a sostener que masturbarse daña el cerebro? Así llegamos a los motivos que han llevado a algunos investigadores a definir los estudios sobre el cerebro y el porno como un cenagal del que siempre se sale enfangado…

Les dejo con unos minutos musicales alusivos al tema. Por desgracia, Adictos de la lujuria de los incomparables Parálisis Permanente no tuvo un vídeo oficial, que yo sepa, pero las poses de Ana Curra en la funda del disco alimentaron las fantasías de muchos en la era preinternet. Y ya en la era de internet, nada mejor que Pussy, de Rammstein.

¿Debe una prueba de trastorno mental influir en las sentencias judiciales?

Esta mañana he podido escuchar cómo el primer tertuliano de radio de la temporada se transmutaba en psiquiatra experto para afirmar sin rubor ni duda que la ya asesina confesa de Gabriel Cruz es «una evidente psicópata». Lamentablemente, el tertuliano no ha detallado el contenido de sus análisis periciales ni las fuentes de su documentación, aunque algo me dice que probablemente estas últimas se resumirán en Viernes 13 parte I, II, III, IV, V y VI.

Gabriel Cruz. Imagen tomada de 20minutos.es.

Gabriel Cruz. Imagen tomada de 20minutos.es.

Sí, todos hemos visto películas de psicópatas, tanto como hemos visto películas de abogados. Pero lo único evidente es que solo los psiquiatras están cualificados para emitir un diagnóstico de trastorno mental, y que solo los juristas están cualificados para establecer cómo este diagnóstico, si llega a existir, influye en el dictamen de una sentencia de acuerdo a la ley.

El problema es que quizá la influencia de estos diagnósticos en las sentencias no siempre sea bien recibida o entendida por el público. Obviamente, el código penal no es una ley de la naturaleza, sino una construcción humana. El diagnóstico de un psiquiatra puede ser científico (sí, el filósofo de la ciencia Karl Popper alegaba que el psicoanálisis era una pseudociencia, aunque no creo que hoy pensara lo mismo de otros enfoques como la neuropsiquiatría), pero el papel del médico forense acaba cuando presenta su dictamen, y su impacto sobre la jurisdicción es una decisión humana; que no debería ser arbitraria, pero que en ciertos casos o para muchas personas puede parecerlo.

La Ley de Ohm es la misma aquí que en Novosibirsk, pero la ley de Ohm-icidios cambia en cuanto nos desplazamos unos cuantos cientos de kilómetros. Cuando se trata de crímenes tan atroces como el de Gabriel, hemos visto de todo: asesinos convictos con una frialdad glacial sin confesión ni arrepentimiento, pero también madres destrozadas al ser conscientes de la barbaridad que cometieron cuando mataron a sus hijos en la creencia de que iban a ahorrarles sufrimiento y llevarlos a «un lugar mejor». Imagino que a su debido tiempo los psiquiatras forenses deberán determinar si la asesina de Gabriel está afectada por algún trastorno o no, ya sea transitorio o permanente, y un posible diagnóstico podría influir en su sentencia. Pero esta influencia es algo que puede variar de un país a otro.

Si no he entendido mal, y que me corrija algún abogado en la sala si escribo alguna burrada, una parte de esta heterogeneidad de criterios se debe a las diferencias en los sistemas legales. España y la mayor parte del mundo se basan en el llamado Derecho Continental, en el que prima el código legal. Por el contrario, Reino Unido, EEUU, Australia y otros países de influencia británica se rigen por el Derecho Anglosajón (Common Law), en el que la jurisprudencia manda sobre la ley. Al parecer este es el motivo de esas escenas tan repetidas en el cine de abogados, donde la presentación del precedente del estado de Ohio contra Fulano consigue finalmente que el protagonista gane el caso cuando ya lo tenía perdido.

En concreto, en EEUU esta primacía de la jurisprudencia parece marcar diferencias en cómo jueces y jurados integran un diagnóstico de trastorno mental en sus sentencias. Un estudio publicado en 2012 en la revista Science llegaba a la conclusión de que una defensa basada en un diagnóstico de psicopatía es una «espada de doble filo»: algunos jueces lo interpretan como un atenuante porque el psicópata no es plenamente responsable de sus actos, mientras que otros lo aprovechan como agravante con el fin de que una condena mayor proteja a la sociedad del psicópata.

En concreto, los autores descubrieron que los 181 jueces de EEUU participantes en el estudio tendían a aumentar sus condenas a causa de un diagnóstico de psicopatía, pero se inclinaban a aliviar este aumento de la pena cuando se les explicaban las bases biológicas y neurológicas del trastorno mental. En España y según leo en webs jurídicas como aquí, aquí o aquí, además de lo que dice al respecto el Código Penal, los trastornos mentales actúan como atenuantes o eximentes.

En los últimos años parece existir además una tendencia hacia una mayor biologización de los diagnósticos de trastorno mental en el ámbito jurídico. En EEUU llevan ya unos años utilizándose los escáneres de neuroimagen para mostrar cómo un reo muestra ciertas alteraciones en su actividad cerebral que se asocian con determinados trastornos mentales.

En algunos juicios se han presentado también análisis genéticos de Monoamino Oxidasa A (MAO-A), un gen productor de una enzima cuya carencia se ha asociado con la agresividad en ciertos estudios. Estos argumentos también han llegado a Europa, donde ya han servido para aminorar algunas condenas cuando los estudios genéticos y de neuroimagen mostraban que el condenado estaba, según ha presentado la defensa y ha admitido el juez, genéticamente predispuesto a la violencia.

Pero aunque sea una práctica común y aceptada que un trastorno mental influya en una sentencia criminal, parece evidente que este enfoque no cuenta con la comprensión general. Y no solo por parte del público. En el estudio de Science, la coautora y profesora de Derecho de la Universidad de Utah Teneille Brown concluía: «A la pregunta de ¿influye esta prueba biológica [de un trastorno mental] en el dictamen de los jueces?, la respuesta es absolutamente sí; entonces eso nos lleva a la interesante pregunta: ¿debería?»

Para algunos la respuesta es no. En un análisis publicado en 2009 en la revista Nature, el genetista Steve Jones, del University College London, decía: «el 90% de los asesinatos son cometidos por personas con un cromosoma Y; hombres. ¿Deberíamos por esto dar a los hombres condenas más leves? Yo tengo baja actividad MAO-A, pero no voy por ahí atacando a la gente».

Pero para otros, en cambio, los estudios biológicos son una interferencia irrelevante que no debería influir en la consideración de un trastorno como atenuante; en un análisis relativo al estudio de Science, el experto en leyes y neurociencia Stephen Morse, de la Universidad de Pensilvania, decía: «si la ley establece que una falta de control de los impulsos debe influir en la sentencia, ¿por qué debería importar si esa falta de control de los impulsos es producto de una causa biomecánica, psicológica, sociológica, astrológica o cualquier otra de la que el acusado no es responsable?»

Con independencia de si el trastorno debiera influir o no, como agravante o atenuante, podría parecer que pruebas como las genéticas al menos deberían ayudar a certificar el estado mental del sujeto en el momento del crimen. El pasado noviembre, el psicólogo criminal Nicholas Scurich y el psiquiatra Paul Appelbaum publicaban un artículo en la revista Nature Human Behaviour en el que notaban cómo «la introducción de pruebas genéticas de una predisposición a una conducta violenta o impulsiva está en alza en los juicios criminales».

Sin embargo, la aportación de la genética es cuestionable: los autores advertían de que esta tendencia puede ser contraproducente, ya que no existen pruebas suficientes de una vinculación directa entre ciertos perfiles genéticos y los comportamientos antisociales. «Aunque aún hay controversia, algunos juristas teóricos han sugerido que la genética del comportamiento y otras pruebas neurocientíficas tienen el potencial de socavar la noción legal del libre albedrío», escribían Scurich y Appelbaum.

En resumen, la polémica se sintetiza en una pregunta ya clásica: «¿la biología le obligó a hacerlo?» Parece que seguirá siendo un asunto controvertido, sobre todo porque toca materias muy sensibles, como la esperanza de unos padres destrozados de que se haga justicia con el asesinato de su hijo. ¿Hasta qué punto puede considerarse que una persona afectada por ciertos trastornos es responsable o no de sus actos? ¿Hasta qué punto deben estas condiciones influir en una sentencia judicial? Si hoy no creemos en el determinismo genético de la conducta, ¿tiene sentido seguir aplicando este concepto a la atenuación de penas? ¿Es una idea obsoleta? Ni la ciencia ni el derecho parecen tener todas las respuestas a unas preguntas que posiblemente vuelvan a resonar cuando se celebre el juicio de la asesina de Gabriel.

Escuchar death metal aporta alegría y paz interior a sus seguidores

Ayer les contaba aquí que la ciencia aún no ha podido reunir pruebas convincentes de los beneficios específicos del mindfulness, esa técnica de meditación cuya popularidad ha explotado de tal modo que la onda expansiva nos ha alcanzado incluso a quienes estamos en el radio más distante. Pero aclaré también que esto significa exactamente lo que la frase expresa literalmente: la ciencia no niega los beneficios del mindfulness, sino que hasta ahora no ha podido encontrarlos.

Y no puede decirse que no se hayan buscado; como conté ayer, ya se han hecho casi 5.000 estudios. Por supuesto que algunos sí encuentran efectos positivos, pero no así otros, y la ciencia no consiste en lo que en inglés llaman cherry-picking o coger cerezas (aquí tal vez podríamos hablar de coger setas), elegir los estudios que nos convienen, sino en analizarlos todos en su conjunto. Cuando se examinan globalmente los trabajos válidos publicados, esos beneficios no afloran claramente, o al menos no superan a los que pueden obtenerse de otras actividades como la psicoterapia o el simple ejercicio físico. Y si debemos fiarnos de la experiencia, cuando cuesta tanto demostrar algo… tiende a ser más bien improbable que realmente haya algo que demostrar.

Todo lo cual no supone un alegato científico en contra del mindfulness, sino una llamada al escepticismo frente a cualquier tipo de proclama exagerada que pretenda vender esta práctica como el milagro capaz de cambiarnos la vida. A algunas personas tal vez les aporte beneficios. A otras no. Y en cambio, puede que algunas de estas alcancen la alegría y la paz interior con otras actividades tan alejadas del mindfulness como pueden estarlo la meditación y el death metal.

Cannibal Corpse en concierto en Washington en 2007. Imagen de Chris Buresh / Wikipedia.

Cannibal Corpse en concierto en Washington en 2007. Imagen de Chris Buresh / Wikipedia.

No, no es un ejemplo metafórico. Esto es precisamente lo que descubre un estudio elaborado por tres psicólogos de la Universidad Macquarie de Australia y que se publicará próximamente en la revista Psychology of Popular Media Culture. A través de un ensayo experimental y mediante un amplio arsenal de tests y cuestionarios, los investigadores trataron de saber qué tipo de emociones evoca el death metal en un grupo de 48 fans de este subgénero, en comparación con otro grupo de 97 voluntarios que no escuchan este tipo de música.

Quienes visiten este blog de tanto en tanto quizá recuerden que a finales del año pasado publiqué aquí una serie de artículos (que comenzaba aquí) sobre estudios científicos relacionados con la música, y en especial sobre géneros musicales extremos como el metal y el punk. Un viejo cliché asocia estos estilos de música con la agresividad, la violencia, la conducta antisocial y las vidas desestructuradas. Pero la música solo es música, y si en algunos casos es más que música, lo que hay de más no es realmente música. Con esta frase más propia de Rajoy quiero significar que los científicos no parecen encontrar una relación de causa –escuchar decibelios y guitarras distorsionadas– y efecto –acabar tarado–, a pesar de que algunos claramente abordaron sus investigaciones dándolo por hecho.

Si es que en algunos casos existe una relación, tal vez sea de otro tipo; ya sea que ciertas personas de por sí problemáticas encuentren su nicho en el metal o el punk, o que reaccionen inadecuadamente a un estigma social, o incluso que exista un cierto perretxiko-picking a la hora de destacar ciertos rasgos de los protagonistas de sucesos concretos. Creo evidente que la mayoría de quienes hemos frecuentado estos géneros musicales desde hace décadas no hemos salido tan tarados. Incluso en el caso del black metal, que en los años 90 sirvió de escenario a varios sórdidos crímenes en su Noruega natal, es evidente que la práctica totalidad de sus seguidores jamás ha decapitado a nadie.

Los investigadores del estudio que vengo a contar eligieron el death metal por ser uno de los subgéneros que suelen asociarse con contenidos más violentos en sus letras y su iconografía. Esto es más que innegable en algunos (no todos) de los ocho grupos elegidos por los psicólogos, Cannibal Corpse, At the Gates, Arch Enemy, Nile, Autopsy, Obituary, Carcass y Bloodbath. La canción de Cannibal Corpse utilizada para el estudio, Hammer Smashed Face (Cara aplastada por un martillo), describe una repugnante escena de tortura brutal y asesinato a manos de un psicópata que lo cuenta en primera persona.

(Atención: creo que debo advertir de que el siguiente vídeo no es apto para menores, y probablemente tampoco para muchos mayores).

Fuerte, ¿no? Si nos atenemos a la interpretación más simple, cabría imaginar que los fans de Cannibal Corpse están a un hervor de lanzarse a la calle a descuartizar a sus semejantes. Pero naturalmente, el ser humano es bastante más complicado de lo que sugiere esa lógica simple. Como era de esperar, la música provoca emociones diferentes en fans y no fans del death metal: en los segundos predominan la tensión, el miedo y la furia, pero a los primeros la música que escuchan habitualmente les inspira sobre todo fuerza o energía (3,93 sobre 5), alegría (3,58) y paz (2,73). Según los autores, «parece que los fans pueden atender selectivamente a atributos particulares líricos y acústicos de la música violenta de un modo que promueve objetivos psicosociales».

El estudio está en consonancia con otros que he contado aquí anteriormente y que encuentran diferencias parecidas: la escucha de estilos musicales extremos resulta perturbadora y desagradable para quienes no son aficionados a estos géneros, pero a sus seguidores les induce generalmente emociones positivas. Y por otra parte, si alguien decidiera estudiarlo, es bastante concebible que ocurriera justo lo contrario en un análisis inverso, sometiendo a los metalheads a una selección de grandes éxitos de Operación Triunfo.

Según uno de los fans participantes, «tiene algo que ver con el grito primario dentro de nosotros, es una descarga, aceptación y empoderamiento«. Los autores destacan que probablemente los fans del death metal buscan cosas diferentes en la música que los aficionados a otros estilos musicales, y que las letras violentas se contemplan con distanciamiento psicológico porque no son reales.

¿Obvio? Es un caso parecido al de las películas violentas, aunque los autores aciertan al señalar una diferencia: las convenciones del cine establecen unos criterios morales con respecto a la presentación de la violencia en un contexto narrativo que la explica; los malos pierden y sufren castigo, y cuando los buenos son violentos es porque los malos empezaron primero, o para evitar un mal mayor. Sin embargo, nada de esto existe en Hammer Smashed Face.

Pese a todo, esto nos lleva a esa eterna pregunta que ronda las mentes de padres y madres: ¿la violencia audiovisual (películas, música, videojuegos…) lleva a la violencia real? Pero esta es otra historia más amplia, y si acaso ya repasaremos otro día qué dicen los científicos de ello. Por el momento y por si Cannibal Corpse les ha dejado un regusto demasiado visceral (literalmente), les dejo con First Kill de los grandes Amon Amarth, death metal melódico con esas octavas de guitarra que tanto nos gustan a quienes ya peinamos canas.