Entradas etiquetadas como ‘psicología’

Una vez más: escuchar heavy metal no inclina a la violencia

En 1985 se formó en EEUU el Parents Music Resource Center, un comité encabezado por Tipper Gore –esposa del exvicepresidente y premio Nobel de la Paz Al Gore– cuyo objetivo era, básicamente, censurar la música. A la señora Gore no le gustó nada descubrir un día a su hija escuchando a Prince cantar cómo Darling Nikki se masturbaba una y otra vez, y decidió hacer algo al respecto: aprovechar la influencia de su importante marido, por entonces congresista, para acabar con aquella música obscena y profana.

En concreto, Tipper Gore y sus tres compañeras, también esposas de políticos de Washington, pretendían que la industria musical adoptara un sistema de calificación moral para los discos, que aquellos con portadas “explícitas” se escondieran bajo el mostrador en las tiendas, que las emisoras de radio y televisión se abstuvieran de emitir canciones guarras o violentas, e incluso, por pedir que no quede, que las discográficas rescindieran sus contratos con los músicos ofensivos y que un comité (es decir, ellas) decidiera qué podía publicarse y qué no.

Bloodbath tocando en Alemania en 2015. Imagen de S. Bollmann / Wikipedia.

Fíjense en la fecha: 1985. La nuestra no fue la primera generación en la que los padres se escandalizaban por la música que escuchaban sus hijos; como cuenta la serie Downton Abbey, en los años 20 a los mayores les espantaba el charlestón. Pero en los 80 ya no se trataba solo de que a nuestros mayores les pareciera que “eso no es música, es ruido”, sino que además estaban las letras. Si a Tipper Gore le escandalizaba aquella de Prince, alguien tendría que haberle regalado, por ejemplo, el ¿Cuándo se come aquí? de Siniestro Total (en la gloriosa época del gran Germán Coppini), un LP que un servidor tenía que escuchar obligatoriamente con walkman porque las ondas acústicas de aquellas letras no podían profanar el aire de casa.

Las letras de aquellas canciones, pensaban Tipper Gore y otros muchos como ella, nos iban a convertir en adultos trastornados, violentos e impúdicos. Durante las sesiones del PMRC, el profesor de música de la Universidad de Texas Joe Stuessy, también compositor e historiador del Rock & Roll, declaró que el heavy metal “contiene el elemento de odio, una maldad de espíritu”, expresada en sus letras de “violencia extrema, rebelión extrema, abuso de sustancias, promiscuidad sexual y perversión y satanismo”.

Las fundadoras del PMRC se quedaron colgando de la brocha cuando incluso músicos de estilos más tradicionales como John Denver, en cuyo apoyo confiaban, denigraron aquel intento inquisitorial. Finalmente todo quedó en esas pegatinas que decoran las portadas de ciertos discos para advertir de que las letras son “explícitas”, y que normalmente se exhiben más como gancho que como penalización.

Pero parece que, después de todo, no hemos salido tan malos quienes crecimos escuchando aquellas letras que por primera vez se atrevían a llegar años luz más allá del I wanna hold your hand. Trabajamos, tenemos familias, nuestros másteres y doctorados son auténticos, y la mayoría ni siquiera hemos robado jamás un bote de crema facial del súper.

Y a pesar de ello, el espíritu del PMRC ha continuado muy presente en quienes piensan que las mentes de los demás son más simples que las suyas, y que por tanto les basta con escuchar a los Sex Pistols cantando “I wanna destroy the passerby” para salir a la calle con el primer bate de béisbol o cuchillo de carnicero que se encuentre a mano. Aún en pleno siglo XXI, hay quienes sostienen que determinados estilos musicales son potencialmente nocivos para el equilibrio mental.

Por suerte, hoy contamos con algo más que con nosotros mismos como pruebas vivientes; contamos también con la ciencia. Estudiar qué efectos causan los géneros musicales más extremos en sus fanes es un campo de interés para la psicología experimental. Y como ya he contado aquí en varias ocasiones anteriores, los estudios no logran demostrar que el punk o el heavy metal nos conviertan en peligrosos desequilibrados. Más bien al contrario: según revelaba el año pasado un grupo de investigadores de la Universidad Macquarie de Australia (y conté aquí), escuchar death metal aporta alegría y paz interior a sus seguidores.

Los mismos investigadores acaban de publicar ahora un nuevo estudio que trata de ampliar un poco más sus hallazgos anteriores. En esta ocasión se han preguntado si escuchar death metal, con sus letras rebosantes de caos, masacre, sangre y vísceras, puede desensibilizar frente a la violencia. Según los autores, esta línea de indagación merece un enfoque especial dentro del debate siempre actual sobre si la influencia de los contenidos audiovisuales violentos tiene alguna responsabilidad en la violencia del mundo real.

Los investigadores reunieron a un grupo de 80 voluntarios, 32 de ellos seguidores del death metal, y los sometieron a un test consistente en mostrar simultáneamente una imagen distinta a cada uno de los dos ojos, una neutra y otra de contenido violento. La percepción de los participantes, si captaba más su atención la imagen violenta o la neutra, revelaba su sensibilidad a la violencia; y esto se hizo mientras los voluntarios escuchaban una de dos canciones: Happy, de Pharrell Williams, o Eaten, del supergrupo sueco de death metal Bloodbath.

Bloodbath en 2016. Imagen de Markus Felix / Wikipedia.

Bloodbath en 2016. Imagen de Markus Felix / Wikipedia.

La diferencia en estilo musical es evidente. Y en cuanto a la diferencia entre las letras de ambas, esta es Happy

Porque estoy feliz, da palmas si te sientes como una habitación sin techo
Porque estoy feliz, da palmas si sientes que la felicidad es la verdad
Porque estoy feliz, da palmas si sabes qué es la felicidad para ti
Porque estoy feliz, da palmas si sientes que eso es lo que te apetece

…y esta es Eaten:

Desde que nací he tenido un deseo
Ver mi cuerpo abierto y destripado
Ver mi carne devorada ante mis ojos
Me ofrezco como sacrificio humano solo para ti
Trínchame, córtame en lonchas
Succiona mis entrañas y lame mi corazón
Descuartízame, me gusta que me hagan daño
Bébete mi médula y mi sangre de postre

Se aprecian las diferencias, ¿no?

Pues bien, los resultados del estudio indican que los fanes del death metal son tan sensibles a la violencia como los no aficionados a esta música, con independencia de si escuchan Happy o Eaten. En cambio, los no aficionados a esta música extrema se muestran más sensibilizados a las imágenes violentas cuando escuchan el fetichismo caníbal de Bloodbath que cuando Pharrell Williams les invita a dar palmas.

En resumen, escriben los investigadores, “la exposición a largo plazo a música con temas agresivos no conduce a una desensibilización general a la violencia mostrada en imágenes”. Los resultados del estudio muestran que los seguidores del death metal asocian emociones positivas a su música incluso cuando narra un descuartizamiento; simplemente, no es real. Es solo música.

“De hecho, investigaciones recientes sugieren que los fanes y los no fanes del death metal exhiben la misma capacidad de empatía, lo que cuestiona las graves preocupaciones que se han manifestado sobre los peligros de la exposición a música violenta”, escriben los investigadores. Va a resultar que las mentes de quienes escuchan música extrema no son más simples que las de quienes advierten de sus peligros. Y que probablemente Prince no le enseñó nada a la hija de Tipper Gore que ella no supiera ya.

¿Influyen las series de televisión en las creencias conspiranoicas?

Decíamos ayer que, según los estudios de los psicólogos, los niños aprenden a diferenciar la realidad de la ficción entre los tres y los cinco años. Lo cual no quiere decir que abandonen la fantasía; por ejemplo, el suelo es lava, pero ellos saben que realmente no lo es. El psicólogo de Harvard Paul Harris contaba cómo, desde la tierna edad de dos años, los niños que celebran una fiesta de té con peluches dicen que uno de ellos se ha mojado cuando se le vuelca una taza sobre la cabeza, a pesar de que ellos lo notan seco cuando lo tocan; en realidad, saben que ese “mojado” es diferente del “mojado” cuando se hunde el peluche en la bañera.

Este aprendizaje es el que les lleva a comprender que los superhéroes no son reales, o que el Mickey Mouse del parque Disney no es realmente el único e insustituible Mickey Mouse en persona, ya que este último es solo un dibujo animado. Es curioso cómo para nosotros, los adultos, comprender este desarrollo de la mente infantil es complicado a pesar de que todos hemos pasado por ello.

Un ejemplo interesante es el de la magia navideña. La psicóloga Thalia Goldstein identificaba cinco fases en el desarrollo mental del niño, desde la creencia a pies juntillas en Santa Claus, pasando por la idea de que el Santa Claus del centro comercial no es el verdadero sino una especie de emisario mágico, a la de que es solo un representante autorizado, para comprender después que es un simple imitador del auténtico, hasta finalmente descubrir todo el pastel completo.

Pero de hecho, los propios psicólogos advierten de que todo esto no es tan nítido ni tan programado como podría parecer; por ejemplo, se ha propuesto que la incapacidad de diferenciar la realidad de la fantasía es una causa primaria de los miedos nocturnos de los niños, y esto puede persistir cuando ya saben conscientemente, al menos en apariencia, que los superhéroes o los monstruos no existen en carne y hueso.

Y aún más, es evidente que no solo los niños padecen miedos nocturnos, y que muchos adultos creen en fantasmas a pesar de no haberse podido verificar ni una sola prueba sólida de su existencia. Y que no pocos sufren pesadillas o tienen miedo de sufrirlas si ven una película de terror.

Stranger Things. Imagen de Netflix.

Stranger Things. Imagen de Netflix.

Así pues, parece que la ficción nos influye también a los mayores: lloramos cuando muere un personaje, aunque ese personaje jamás haya existido. Precisamente en estos días he recibido dos mensajes de lectores de mis novelas contando cómo les habían hecho llorar. Poder provocar emociones sinceras a través de historias y personajes que son cien por cien ficticios es, en mi opinión, el mayor privilegio de un escritor.

La influencia de la ficción se manifiesta en otros aspectos: el tabaco casi ha desaparecido de las películas –excepto en aquellas ambientadas en una época en la que se fumaba mucho más que ahora– porque se piensa que su representación puede incitar a su consumo, y un viejo debate siempre presente plantea cómo la violencia en el cine o en los videojuegos puede engendrar violencia real. Y aunque estas suposiciones sean como mínimo muy cuestionables, el principio general en el que pretenden basarse no es descartable: no somos inmunes a la ficción.

Pero ¿qué hay de las pseudociencias y las teorías de la conspiración? Se diría que hoy están más presentes que nunca entre nosotros. Y si bien es cierto que tal vez solo se trate de que internet y las redes sociales las han hecho más visibles, también lo es que esta mayor visibilidad tiene el potencial de atraer más adeptos. Hace unos días, mi colega Javier Salas contaba en El País cómo incluso una idea tan descabellada como el terraplanismo puede convencer a muchas personas simplemente con unos cuantos vídeos en YouTube, y cómo incluso los moderadores de estos contenidos conspiranoicos en Facebook acaban en muchos casos atrapados por estos engaños.

De todo esto surge una pregunta: ¿puede también la ficción convencer a sus espectadores de que las teorías de la conspiración son reales? Ayer mencionaba el ejemplo de Stranger Things, una estupenda serie de trama conspiranoica y paranormal, muy recomendable… siempre que se comprenda que es un mero entretenimiento y que nada de lo retratado es real. Pero ¿se comprende?

Esta es precisamente la pregunta que se hicieron tres psicólogos de las universidades de Bruselas y Cambridge. Los investigadores hacían notar que la influencia de la ficción en las personas ha sido ampliamente estudiada, como también lo han sido los mecanismos mentales que sostienen la creencia en conspiranoias. “Sin embargo, hasta la fecha estos dos campos han evolucionado por separado, y en nuestro conocimiento ningún estudio ha examinado empíricamente el impacto de las narrativas de conspiración en las creencias conspirativas en el mundo real”, escribían los autores en su estudio, publicado el pasado año en la revista Frontiers in Psychology.

Los investigadores reunieron a cerca de 250 voluntarios, y a una parte de ellos los sentaron a ver un capítulo de otra mítica serie de televisión sobre conspiraciones, tal vez la serie de televisión sobre conspiraciones, que desde 1993 y casi hasta hoy –con algunas interrupciones– nos ha mantenido pegados a la tensión entre el conspiranoico Fox Mulder y la racional y escéptica Dana Scully; y que no es otra que Expediente X. Tanto los sujetos del experimento como el grupo de control fueron sometidos a un test para valorar sus creencias y opiniones y la posible influencia del episodio sobre ellas.

Imagen de Joe Ross / Flickr / CC.

Imagen de Joe Ross / Flickr / CC.

Y el resultado fue… negativo. “No observamos un efecto de persuasión narrativa”, escribían los investigadores, concluyendo que su estudio “apoya fuertemente la ausencia de un efecto positivo de la exposición a material narrativo en la creencia en teorías de conspiración”.

Para quienes procedemos de ciencias empíricas más puras, la psicología experimental tiene el enorme valor de aportar una solidez científica que cuesta encontrar en otras ramas de la psicología; por ejemplo, la clásica acusación de pseudociencia contra el psicoanálisis freudiano se basa en que se desarrolló como sistema basado en la observación, no en la evidencia. Esto incluye el hecho de que Freud fundó su método sobre premisas que eran simples intuiciones. Y esto a su vez está muy presente en mucha de la psicología de divulgación que se escucha por ahí, justificada más por el argumento de autoridad –la “voz del experto”– que por la prueba científica (incluso aunque esta exista).

En este caso concreto, sería fácil escuchar a cualquiera de esos psicólogos radiotelevisivos disertar sobre cómo las conspiraciones de ficción moldean la mente de la gente. Y todos nos lo creeríamos, porque resulta razonable, plausible. Tanto que los autores del estudio esperaban que su experimento lo confirmara. Pero a la hora de llevar la teoría al laboratorio, se han encontrado con una conclusión que les ha sorprendido: “Nuestras hipótesis primarias han sido refutadas”, escriben. Y esto es lo grandioso de la ciencia: reconocer que uno se ha equivocado cuando las pruebas así lo manifiestan.

Ahora bien, podríamos pensar que no es lo mismo ver un solo episodio de una serie conspiranoica como Expediente X que someterse a un tratamiento intensivo de varias temporadas en régimen de binge-watching, sobre todo en el caso de espectadores con ciertos perfiles psicológicos concretos. Esto es lo que distingue a la ciencia de lo que no lo es; uno no puede llevar sus conclusiones más allá de lo que dicen los datos derivados de las condiciones experimentales concretas. Los autores escriben: “Serían bienvenidos los estudios longitudinales examinando el impacto de la exposición a series conspiracionistas durante periodos de tiempo mucho más largos”.

Pero hay un mensaje clave con el que deberíamos quedarnos. Y es que, si existe algún ligero efecto sugerido por el estudio, aunque estadísticamente dudoso, es el contrario al esperado: “De hecho, la exposición a un episodio de Expediente X parece disminuir, en lugar de aumentar, las creencias conspirativas”, escriben los autores. Es lo que se conoce como efecto bumerán: “Las personas pueden percibir el mensaje persuasivo como un intento de restringir su libertad de pensamiento o expresión y por tanto reafirmarse en esta libertad rechazando la actitud defendida por el mensaje”.

Lo cual tiene una implicación esencial que he comentado y defendido aquí a menudo: pensar que las pseudociencias se combaten simplemente con más formación-información-divulgación científica es un gran error. Es insultar a los conspiranoicos atribuyéndoles una simpleza mental que dista mucho de la realidad; también en el caso del mensaje científico, el efecto bumerán actúa poderosamente en las personas que apoyan las pseudociencias. Como decían en Expediente X, la verdad está ahí fuera. Pero la gran pregunta es cómo convencer a los conspiranoicos de que no es la que ellos creen.

Los detractores extremos de los alimentos transgénicos saben menos, pero piensan que saben más

La frase sobre estas líneas es, tal cual, el título del estudio que vengo a contar hoy. Pocas veces se encuentra un trabajo científico cuyo encabezado exprese de forma tan llana y transparente lo que expone. Así que, ¿para qué buscar otro?

Como conté aquí ayer, la ciencia está cada vez más implicada en las cosas que afectan a la gente, por lo que hoy es inexcusable que cada ciudadano cuente con la suficiente educación científica para entender el mundo que le rodea. Cuando falta esta educación, triunfa el rechazo como mecanismo de defensa frente a lo desconocido, y nos convertimos en fácil objeto de manipulación por parte de quienes siembran bulos y desinformación, sean cuales sean sus fines.

Uno de los ejemplos que mejor ilustran el papel crítico de esta educación es el de los alimentos transgénicos (genéticamente modificados, GM). Probablemente no muchas cuestiones de seguridad biológica han sido tan extensamente investigadas como los efectos de estas variedades vegetales sobre el medio ambiente y la salud humana y animal.

Manifestación antitransgénicos en Chile. Imagen de Mapuexpress Informativo Mapuche / Wikipedia.

Manifestación antitransgénicos en Chile. Imagen de Mapuexpress Informativo Mapuche / Wikipedia.

Como ya conté aquí en su día, en 2016 un informe de 400 páginas elaborado por más de 100 expertos de las academias de ciencia, ingeniería y medicina de EEUU resumió dos años de análisis de casi 900 estudios científicos publicados desde los años 80, cuando las variedades transgénicas comenzaron a cultivarse.

El veredicto era contundente: no existe ninguna prueba de que los cultivos GM sean perjudiciales para la salud humana o animal ni para el medio ambiente. Sin embargo y como aspecto menos favorable, los autores del informe concluían que los beneficios económicos para los agricultores han sido desiguales en diferentes países, lo mismo que el aumento de la producción esperado del uso de estas variedades (aunque otros estudios previos como este y este han mostrado que el balance es positivo tanto en incremento de las cosechas como en beneficios para los agricultores).

Por si estas pruebas no bastaran, en febrero de 2018 un grupo de investigadores del Instituto de Ciencias de la Vida y de la Universidad de Pisa (Italia) publicó un nuevo metaestudio que revisaba más 6.000 estudios previos, elaborados entre 1996 y 2016, para seleccionar específicamente aquellos que comparaban datos de campo rigurosos y extensos sobre el maíz transgénico y el no transgénico.

En consonancia con metaestudios previos, los resultados indicaban que no se han detectado daños medioambientales derivados del cultivo de maíz transgénico, y que se han demostrado “beneficios en términos de aumento de la cantidad y la calidad del grano”, con un incremento en las cosechas de entre un 5,6 y un 24,5% en las plantaciones de las variedades GM (tolerantes a herbicidas o resistentes a insectos).

Sumado a esto, los investigadores apuntaban que el maíz transgénico es una opción más saludable que el convencional, ya que contiene un 28,8% menos de micotoxinas (junto con un 30,6% menos de fumonisina y un 36,5% menos de tricotecenos), compuestos producidos por hongos contaminantes que son nocivos a corto plazo y potencialmente cancerígenos a largo. “Los resultados apoyan el cultivo de maíz GM, sobre todo debido al aumento de la calidad del grano y a la reducción de la exposición humana a micotoxinas”, escribían los autores. A ello se unen estudios previos que han estimado en un 37% la reducción del uso de pesticidas gracias a las variedades GM, lo que también disminuye los restos de estas sustancias en el producto final para el consumo.

Mazorcas de maíz de distintas variedades. Imagen de Asbestos / Wikipedia.

Mazorcas de maíz de distintas variedades. Imagen de Asbestos / Wikipedia.

Pese a todo ello, sería una ingenuidad confiar en que estos estudios u otros miles más consigan por fin disipar la feroz oposición de ciertos colectivos a los alimentos transgénicos. Pero ¿en qué se basa esta cerril negación de la realidad? La respuesta no parece sencilla, teniendo en cuenta que, según algún estudio, las personas defensoras de posturas pseudocientíficas o anticientíficas no tienen necesariamente un nivel educativo inferior al de la población general.

A primera vista, se diría que esto contradice lo que expliqué ayer sobre la necesidad de la educación científica. Pero solo a primera vista: la necesidad no es suficiencia; y en cualquier caso, lo que vienen a revelar estas observaciones es que el nivel medio de formación científica de toda la población en conjunto es deficiente. Y sin embargo, no toda la población en conjunto está abducida por la pseudociencia o la anticiencia.

Para explicar por qué unas personas sí y otras no, los expertos hablan de efectos como el sesgo cognitivo –básicamente, quedarse con lo que a uno le interesa, sin importar siquiera su nivel de credibilidad– o de la mentalidad conspiranoica (sí, esto existe: más información aquí y aquí). Para los conspiranoicos, nunca importará cuántos estudios se publiquen; para ellos, quienes exponemos la realidad científica sobre los alimentos transgénicos (incluido un servidor) estamos sobornados por las multinacionales biotecnológicas, incluso sin prueba alguna y pese a lo absurdo del planteamiento. Y todo hay que decirlo, la conspiranoia también puede ser un negocio muy rentable.

Sin embargo, todo lo anterior no termina de aclararnos una duda: si hablamos en concreto de los cultivos transgénicos y de sus detractores, ¿hasta qué punto estos conocen la ciencia relacionada con aquellos? Podríamos pensar, y creo que yo mismo lo he escrito alguna vez, que un conspiranoico es casi un experto amateur en su conspiranoia favorita, aunque sea con un sesgo cognitivo equivalente a medio cerebro arrancado de cuajo. Pero ¿es así, o es que simplemente creen ser conocedores de una materia que en realidad ignoran?

Precisamente estas son las preguntas que han inspirado el nuevo estudio, dirigido por Philip Fernbach, científico cognitivo especializado en marketing de la Universidad de Colorado (EEUU). Para responderlas, los investigadores han encuestado a más de 3.500 participantes en EEUU, Alemania y Francia, interrogándoles sobre su nivel de aceptación u oposición a los alimentos GM y sobre el conocimiento que ellos creen tener de la materia, contrastando los datos con un examen de nociones sobre ciencia y genética.

Y naturalmente, los resultados son los que ya he adelantado en el título extraído del propio estudio, publicado en la revista Nature Human Behaviour. Los investigadores escriben: “Hemos encontrado que a medida que crece el extremismo en la oposición y el rechazo a los alimentos GM, el conocimiento objetivo sobre ciencia y genética disminuye, pero aumenta la comprensión percibida sobre los alimentos GM. Los detractores extremos son los que menos saben, pero piensan que son los que más saben”.

Curiosamente, sucede lo mismo en los tres países incluidos en el estudio. Pero más curiosamente aún, ocurre algo similar con otro caso que los investigadores han empleado como comparación, el uso de ingeniería genética en terapias génicas destinadas a curar enfermedades. También en este caso quienes más se oponen son quienes menos saben, pero quienes creen saber más.

Más asombroso aún: el estudio confirma resultados previos de otro trabajo publicado en junio de 2018, en el que investigadores de las universidades de Pensilvania, Texas A&M y Utah Valley (EEUU) se hicieron las mismas preguntas sobre los activistas antivacunas y el (inexistente) vínculo entre la vacunación y el autismo en los niños. En aquella ocasión, los autores descubrían que quienes más fuertemente se oponían a las vacunas y defendían su relación con el autismo eran quienes menos sabían sobre las causas del autismo, pero también quienes creían conocer este terreno incluso mejor que los científicos y los médicos especialistas.

Un manifestante antivacunas en un mitin del movimiento ultraconservador estadounidense Tea Party. Imagen de Fibonacci Blue / Flickr / CC.

Un manifestante antivacunas en un mitin del movimiento ultraconservador estadounidense Tea Party. Imagen de Fibonacci Blue / Flickr / CC.

Claro que tantos resultados en la misma dirección no pueden obedecer a la simple casualidad; y es que, de hecho, todos ellos responden a un fenómeno detallado en 1999 por los psicólogos David Dunning y Justin Kruger. El llamado efecto Dunning-Kruger consiste en la incapacidad de valorar el propio conocimiento sobre algo que en realidad se desconoce; o dicho de otro modo, es la ignorancia de la propia ignorancia.

No se aplica solo a las materias científicas: el estudio de Dunning y Kruger describió el efecto aplicado a campos tan diversos como el conocimiento de la gramática inglesa, el razonamiento lógico y la habilidad para el humor. En resumen, el efecto Dunning-Kruger es una denominación más elegante y científica para lo que en este país viene conociéndose de forma vulgar e insultante como cuñadismo.

Según Fernbach, esta “psicología del extremismo” es difícilmente curable, ya que se da la paradoja de que quienes más necesitan conocimientos son quienes menos dispuestos están a adquirirlos, ya que se creen sobrados de ellos. Por tanto, lo más probable es que continúen cómodamente sumergidos en su ignorada ignorancia; otra razón más para explicar por qué la difusión de la ciencia no basta para acabar con las pseudociencias.

Al final, hemos llegado a descubrir lo que ya había descubierto Sócrates hace más de 24 siglos: el verdadero conocimiento comienza por ser consciente de la propia ignorancia. A partir de ahí, podemos empezar a aprender.

Un estudio investiga el gran ‘spoiler’ de nuestra infancia sobre la “magia” de la Navidad

Siguiendo con mi línea de ayer, ¿por qué la RAE no acepta el término “spoiler“? Parece claro que su uso está muy extendido y que no va a desaparecer ni a ser reemplazado por una traducción. En algún momento los académicos deberán percatarse de que “no me hagas una descripción de un importante desarrollo de la trama de una serie/película/libro que si se conoce de antemano puede reducir la sorpresa o el suspense para quien la ve o lee por primera vez” (según la definición del diccionario de inglés de Oxford) es una frase que sencillamente no va a ocurrir (no, “no me cuentes el final” no es equivalente, ya que los spoilers no tienen por qué referirse necesariamente al final).

Pero en fin, a lo que voy: uno de los spoilers más memorables de la realidad de nuestras vidas es el que nos llega durante la infancia y que nos desvela cuál es la maquinaria real de esa magia de la Navidad. Es una revelación de tal trascendencia que muchos recuperamos aquella memoria durante toda nuestra vida, y la compartimos: y tú, ¿cómo te enteraste?

Imagen de pixabay.

Imagen de pixabay.

Sin embargo y curiosamente, ha sido una experiencia relativamente ignorada por los estudios, hasta que el psicólogo Chris Boyle, de la Universidad de Exeter (Reino Unido), decidió emprender la primera gran encuesta. La Exeter Santa Survey, actualmente en progreso, “tiene como objetivo obtener una mejor comprensión de las diferentes creencias que las personas tienen en torno a Papá Noel y a la Navidad”, dice la web del proyecto. Por cierto, estoy copiando literalmente en castellano; la encuesta tiene versión en nuestro idioma, por lo que pueden participar si les apetece. Imagino que a Boyle no le importará si en nuestro caso las respuestas se refieren a los Reyes Magos.

Boyle añade: “Mi interés se centra en comprender cómo se siente un niño/a cuando se entera de que Papá Noel xxxxxxxx” (elimino la última parte para no incurrir aquí en ese spoiler). “Por ejemplo, ¿qué edad tenías cuando te enteraste? ¿Viviste la Navidad de forma diferente después de eso? Este proyecto pretende ser una investigación informal sobre el fenómeno de Papá Noel y espero que puedas participar”.

Aunque el proyecto está en curso, las 1.200 respuestas ya reunidas han proporcionado a Boyle el suficiente volumen de información para extraer algunas conclusiones parciales. Por ejemplo, la media de edad a la que los niños suelen acceder al secreto mejor guardado de la Navidad: ocho años. Recordemos que la encuesta está dirigida a los adultos, por lo que los datos se refieren a tiempos pasados, no a los actuales. Al menos en mi sola experiencia personal y por lo que veo en mi entorno, hoy puede que este momento se haya retrasado, lo cual es una paradoja en estos tiempos de mayor acceso a la información; paradoja que tal vez se explique porque también son tiempos de mayor sobreprotección de los niños.

En cuanto al cómo, las respuestas son muy variadas. “La causa principal es la acción deliberada o accidental de los padres, pero algunos niños empezaron a unir las piezas por sí mismos a medida que crecían”, dice Boyle. El investigador cuenta cómo algunos errores de los padres descubren el pastel: un participante los descubrió disfrutando de las viandas y las bebidas que un rato antes habían colocado para Papá Noel y sus renos. Otro los pilló con las manos en la masa tras el estrépito causado cuando a su padre se le cayó uno de los regalos.

En otros casos la torpeza cayó a cargo de los profesores, como cuando eligieron para interpretar el papel del mismísimo y único Papá Noel a uno de ellos a quien los niños conocían sobradamente. Otro contó a sus alumnos de siete años que en el Polo Norte no vivía nadie, una metedura de pata con difícil vuelta atrás. Pero peor fue el caso de otro profesor que, seguramente sin mala intención, pidió a sus alumnos de siete años que escribieran una redacción sobre cómo descubrieron la verdad sobre Papá Noel.

En casos como estos últimos, los padres pierden el control de la situación, como cuando el rumor comienza a extenderse entre los propios niños. Algunos logran inmunizarse contra lo que consideran un flagrante ejemplo de fake news: un participante contó que a los siete años pegó a otro niño por tratar de convencerle de aquella absurda hipótesis, y continuó creyendo en la versión oficial durante tres años más.

En cuanto a la labor detectivesca de los propios niños, un participante contó que reconoció uno de los regalos para su hermana, que había visto en las semanas previas en la habitación de sus padres. Otro fue lo suficientemente astuto para percatarse de que la caligrafía de Papá Noel y la de su padre eran sospechosamente idénticas, mientras que otro encontró las cartas en la habitación de sus padres después de haber sido presuntamente enviadas a su destinatario. Los niños también ataron cabos cuando unos padres algo despistados dejaron las etiquetas de los precios en los regalos, o firmaron un libro destinado a uno de sus hijos como “mamá y papá”.

Imagen de pixabay.

Imagen de pixabay.

Pero sin duda el premio al joven científico lo merece el encuestado que a los nueve años “había aprendido lo suficiente sobre matemáticas, física, viajes y la relación entre el número de niños del planeta y el tamaño del trineo”. O el que decidió poner en marcha su propio experimento independiente, enviando una carta sin conocimiento de sus padres; ni uno solo de los juguetes de aquella lista apareció al pie del árbol. O el que notó la imposibilidad de que un hombre notablemente obeso pudiera deslizarse por el hueco de su chimenea… sobre todo, estando encendida.

Por su parte, el premio a la sensatez se lo lleva el niño al cual, a sus ocho años, nadie supo explicar “por qué Papá Noel no llevaba comida a los niños de los países pobres”. Finalmente, uno de los casos más curiosos es el del niño de cinco años a quien sus padres tuvieron que tranquilizar porque le aterrorizaba la idea de que un extraño allanara su casa en plena noche.

Quizá la faceta más llamativa del estudio es la que descubre cómo reaccionan los niños cuando conocen la realidad de esa magia navideña: la tercera parte de los encuestados recibieron la noticia con disgusto, pero un 15% se sintieron traicionados por sus padres y un 10% incluso furiosos; a un 30% aquella revelación les minó su confianza en los adultos. “En los últimos dos años me he sentido apabullado por la cantidad de gente cuya confianza resultó afectada”, dice Boyle. En el otro extremo están los más pragmáticos, el 65% que prefirió no darse por enterado y seguir actuando como si no hubiera pasado nada.

Lo cual es sin duda una manera bastante conveniente de afrontar esa transición a la madurez; según el estudio de Boyle, a un 34% de los encuestados les encantaría volver a creer en Papá Noel, pero también un 72% de los padres se sienten aliviados de revelar la verdad a sus hijos y, pese a todo, continúan representando esa ceremonia anual dejándose llevar por el juego y la ilusión de estas fechas. Al fin y al cabo, nada nos impide seguir disfrutando de la fantasía… siempre que sepamos distinguirla de la realidad. Y siempre que no confiemos en ella para que nos deje al pie del árbol nada más milagroso que una guitarra nueva, si he sido lo suficientemente bueno este año.

¿Hora de enterrar para siempre a Hans Asperger, médico nazi?

El pediatra austríaco Hans Asperger (1906-1980), cuyo nombre se utiliza desde 1981 para designar un síndrome relacionado con los Trastornos del Espectro del Autismo (TEA), comenzó en 1938 a firmar sus diagnósticos con un “Heil Hitler“. De por sí, alguien podría argumentar que este hecho no es suficiente motivo para descalificar a Asperger: ¿quizá estaría obligado? ¿Pudo ser un trampantojo para mostrar una fachada aceptable ante el régimen nazi que le permitiera proteger a sus pequeños pacientes, como hacía Oskar Schindler cuando agasajaba a los jerarcas del III Reich?

Hans Asperger, circa 1940. Imagen de Wikipedia.

Hans Asperger, circa 1940. Imagen de Wikipedia.

Precisamente el caso de Schindler, si es que la película es fiel a la historia real, sirvió para popularizar a través del cine la figura del personaje con claroscuros frente a la dictadura de Hitler, lejos del clásico esquema de los buenos sin sombras y los malos sin luces. En aquel guion fluía maravillosamente la transición del personaje: desde el especulador sin remordimientos deseoso de lucrarse a costa de la guerra y el sufrimiento, al empresario interesado en defender a los suyos en pro de su propio beneficio, y finalmente al benefactor dispuesto a arruinarse por salvar una vida más.

Después de la Segunda Guerra Mundial y aparte de los juicios como los de Nuremberg, infinidad de personajes de la época fueron sometidos a escrutinio para determinar cuál había sido su relación real con el III Reich. Muchos salieron de aquel proceso legalmente exonerados pero con su reputación comprometida, como el director de orquesta Herbert von Karajan, muy representativo del caso del oportunista que prefirió mirar para otro lado: von Karajan no era nazi ni colaboró de ningún modo con el régimen, pero sí fue miembro del partido y se aprovechó de esta condición para edificar su carrera llevando su música por los países invadidos.

Esta ambigüedad tuvo su propio capítulo en el mundo de la ciencia. Es bien sabido cómo se hizo la vista gorda con el ingeniero Wernher von Braun y otros 1.600 científicos y especialistas nazis, reclutados después de la guerra por el gobierno de EEUU con sus expedientes limpios de polvo y paja. Pero quizá no tan conocido es el hecho de que algunas de las crueles investigaciones llevadas a cabo por los científicos con los prisioneros de los campos de concentración continuaron sirviendo después como referencias en ciertas líneas científicas.

Experimento de hipotermia con un prisionero en el campo de concentración de Dachau. Imagen de Wikipedia.

Experimento de hipotermia con un prisionero en el campo de concentración de Dachau. Imagen de Wikipedia.

Un ejemplo es el efecto de la hipotermia en el cuerpo humano. Con el fin de investigar cómo proteger a los pilotos de la Luftwaffe si caían derribados en el mar, los científicos nazis sumergían a los prisioneros en bañeras de hielo con uniforme de vuelo, cronometrando el tiempo que tardaban en morir. Durante décadas, estudios posteriores sobre esta materia han citado aquellas investigaciones, obviando el pequeño detalle de que los resultados se obtuvieron torturando hasta la muerte a los sujetos humanos.

De cuando en cuando, en los foros científicos resurge el debate sobre la necesidad de terminar de limpiar la ciencia de aquella herencia macabra. Y esta discusión concierne también a ciertos trastornos que aún hoy continúan llevando el nombre de médicos presunta o probadamente relacionados con el régimen nazi. Probablemente el más conocido de estos nombres es el de Asperger.

Pero ¿quién era Hans Asperger? ¿Era un Schindler, o al menos un mero von Karajan? ¿O era en realidad un médico nazi? Durante décadas su figura ha estado envuelta en una neblina de incertidumbre: “la literatura existente sobre el tema ha tendido a minimizar o pasar por alto cualquier implicación [con el régimen nazi], o incluso a postular que Asperger adoptó una posición de resistencia activa”, escribía el mes pasado en la revista Molecular Autism el historiador de la Universidad Médica de Viena (Austria) Herwig Czech.

Sin embargo, según muestra el trabajo de Czech, parece que la versión más ajustada a la realidad es la más terrible. A lo largo de un decenio, Czech ha desenterrado y analizado una vasta documentación sobre el pediatra austríaco que hasta ahora dormía en los archivos, además de reunir y repasar las diversas y a veces discrepantes fuentes ya conocidas. Y de su amplio estudio de 43 páginas se desprende un veredicto contundente. Según resume un editorial que acompaña al estudio de Czech, Asperger “no solo colaboró con los nazis, sino que contribuyó activamente al programa nazi de eugenesia enviando a niños profundamente discapacitados a la clínica Am Spiegelgrund de Viena”.

Am Spiegelgrund es uno de los nombres más infames en la historia de las atrocidades nazis. “Era una clínica que él [Asperger] sabía que participaba en el programa de eutanasia infantil del III Reich, donde se mataba a los niños como parte del objetivo nazi de crear por ingeniería eugenésica una sociedad genéticamente pura a través de la higiene racial y de la eliminación de las vidas consideradas una carga y no merecedoras de vivir”, prosigue el editorial. Como parte del programa de eutanasia Aktion T4, en aquella siniestra institución 789 niños murieron por gas, inyección letal o desnutrición, muertes que en los certificados oficiales se atribuían a la neumonía. La clínica conservó en tarros los cerebros de cientos de niños para su estudio.

Memorial en Viena por los niños asesinados por el régimen nazi en Am Spiegelgrund. Imagen de Haeferl / Wikipedia.

Memorial en Viena por los niños asesinados por el régimen nazi en Am Spiegelgrund. Imagen de Haeferl / Wikipedia.

La investigación de Czech no descubre, ni el historiador pretende alegar, que Asperger participara directamente en las muertes de aquellos niños. Pero con diagnósticos “marcadamente duros”, como calificar a un niño de “carga insoportable”, el pediatra recomendaba el internamiento de los pequeños en Am Spiegelgrund, donde sabía que muchos de ellos eran asesinados. La jerarquía nazi consideraba a Asperger “políticamente irreprochable” y un firme defensor de los principios de higiene racial, y su lealtad al régimen fue recompensada con progresos en su carrera.

Como conclusión principal, Czech señala: “A la luz de la evidencia histórica, la narrativa de Asperger como destacado oponente del Nacional Socialismo y valiente defensor de sus pacientes contra la eutanasia nazi y otras medidas de higiene racial no se sostiene”.

Por si no fueran pruebas suficientes, la publicación del estudio de Czech ha coincidido con la del libro de Edith Sheffer Asperger’s Children: The Origins of Autism in Nazi Vienna, que expone una tesis similar: “Asperger no solo estuvo implicado en las políticas raciales del III Reich de Hitler, sino que además fue cómplice en el asesinato de niños”.

Recientemente se ha informado de que en la nueva versión –que entra en vigor este mes– de la Clasificación Internacional de Enfermedades (CIE) de la Organización Mundial de la Salud (OMS), una de las dos referencias globales utilizadas por la psiquiatría, desaparece definitivamente el diagnóstico de Síndrome de Asperger, pasando a fusionarse dentro de los TEA. Algunas personas diagnosticadas con Asperger van a echar de menos este epónimo, algo comprensible después de una vida acostumbrados a él. Pero la decisión adoptada por la OMS, que responde a motivos clínicos, va a evitar algo que para otros muchos sí puede ser una carga insoportable: llevar en su condición el nombre de quien mandaba a los niños al exterminio.

¿Dormir con tu perro es malo? La opinión experta, el estudio y el estudio científico

Quienes se dedican a analizar cómo funciona el panorama informativo en esta era de las redes sociales suelen insinuar que nos encontramos frente a un embrollo de p…; perdón, quiero decir, frente a un embrollo de considerables dimensiones. Suelen referirse a ello con términos como crisis de la autoridad de los expertos, o algo similar. O sea, que el valor que se otorga al mensaje ya no depende tanto del emisor (su cualificación profesional y su credibilidad como experto), sino del receptor (sus inclinaciones personales, normalmente ideológicas).

No pretendo entrar en fangos políticos, pero me entenderán con un ejemplo sencillo y muy popular: para algunos, el actor Willy Toledo es un intelectual preclaro, mientras que para otros es eso que ahora llaman un cuñado, o algo peor. Pero lo relevante del caso no es qué bando tiene la razón, sino que ambas valoraciones son independientes de los méritos y las cualificaciones que puedan avalar al actor como pensador político; yo no los conozco, y dudo que tampoco muchos de quienes le aplauden o le denostan, que en cualquier caso contribuyen por igual a hacer de él y de sus manifestaciones un trending topic. Y trending topic es algo que se define como lo contrario de las reflexiones de un experto y veterano politólogo de prestigio mundial escondidas en la página 27 del suplemento dominical de un periódico.

Ciñéndome al campo que me toca y me interesa, la ciencia, las fake news proliferan en internet sin que las refutaciones objetivas, contundentes e indiscutibles, parezcan servir para que desaparezcan. En algunos casos se trata de falsas noticias curiosas, como aquello que ya conté aquí de que mirar tetas alarga la vida de los hombres. No importa cuántas veces se aclare que la noticia era falsa, y que ni tal estudio ni su supuesta autora existieron jamás; el bulo ha resurgido periódicamente y continuará haciéndolo.

Pero en otros casos no se trata de curiosidades inocuas, sino de falacias que pueden ser muy dañinas, como los falsos riesgos de las vacunas o de los alimentos transgénicos. Ambas creencias han sido refutadas una y otra vez por aquello que de verdad puede refutarlas, los estudios científicos. Pero lo que al final llega a trending topic es la opinión del actor Jim Carrey o del ¿también actor? Chuck Norris.

Se fijarán en que he escrito “los estudios científicos”, y no “los estudios” ni “los científicos”. Porque en esta era del derrocamiento de la autoridad experta, es imprescindible distinguir entre la opinión de un científico, el estudio y el estudio científico, dado que no todo ello tiene el mismo valor.

Hace unos días mi vecina de blog Melisa Tuya, autora de En busca de una segunda oportunidad (además de otro blog y varios libros), me pasaba una nota de prensa enviada por una empresa que vende colchones (no entro en detalles, pero el comunicado ha sido publicado por algún medio). La compañía en cuestión advertía sobre los riesgos de dormir con tu perro, concluyendo que esta práctica acarrea más desventajas que ventajas. Naturalmente, no hay disimulo: la empresa lanza un colchón específico para perros, y lo que pretende es avalar las bondades de su producto con las maldades de que el animal comparta la misma cama que sus dueños.

Imagen de pxhere.

Imagen de pxhere.

Para apoyar sus proclamas, la compañía ha contratado (obviamente, en estos casos siempre hay un flujo monetario) una opinión experta, la de una veterinaria. La doctora advierte en primer lugar de que los animales deben estar limpios y desparasitados para evitar el riesgo de que el contacto con los humanos en la misma cama (o en cualquier otro lugar, para el caso) pueda favorecer la transmisión de enfermedades. El consejo resulta incuestionable, ya que innumerables estudios científicos han demostrado el contagio de infecciones de animales a humanos, como he contado aquí.

Pero seguidamente la veterinaria entra en un terreno más pantanoso, y es el de los posibles efectos nocivos que el compartir el lecho con los humanos puede ejercer sobre la conducta del animal: que le dificulte la separación de sus dueños o que crea haber conquistado el castillo de la cama y el liderazgo del hogar. Y al fin y al cabo, añade la doctora, el animal no va a ser más feliz por el hecho de dormir junto a sus dueños.

Todo esto está muy bien. Pero ¿dónde están los datos? Afirmar que esta versión zoológica del colecho puede dañar la psicología del animal es una hipótesis razonable. Pero sin aval científico, es solo una hipótesis. O en otras palabras, una opinión. Y aunque sin duda las opiniones de los expertos merecen una mayor consideración que las de quienes no lo son, una proposición científicamente comprobable no tiene valor de verdad hasta que se comprueba científicamente. Y la historia de la ciencia es un reguero de hipótesis fallidas. Puede que dormir con sus dueños altere la conducta del perro. Tanto como puede que no. Pero en ciencia no debe existir el “ex cátedra”: la verdad no está en la opinión de un experto, sino en la opinión de un experto respaldada por los estudios científicos. ¿Los hay? No, no basta con la experiencia propia. En ciencia, no.

Voy ahora al segundo argumento, y es la diferencia entre el estudio y el estudio científico. Hoy estamos inundados de estudios por todas partes. Casi cualquier empresa con el suficiente poderío y una política de marketing emprende estudios: las webs de venta de pisos publican estudios sobre la evolución del precio de la vivienda, los seguros médicos publican estudios sobre el consumo de alcohol en los jóvenes, y hasta las webs porno publican estudios sobre las preferencias sexuales de sus usuarios. Para las empresas, elaborar estudios se ha convertido en una práctica común, quizá porque aumenta su visibilidad y su reputación a ojos del consumidor.

Pero hay algo esencial, crucial, sustancial, básico, y todos los sinónimos son pocos, que distingue a un estudio corporativo de un estudio científico: el primero no pasa otro filtro que el de la propia compañía, que por definición está siempre afectada por un conflicto de intereses. En la inmensa mayoría de los casos, lo que las empresas denominan estudios son lo que antes se llamaba encuestas. Una encuesta es algo muy valioso y necesario, pero no llega a ser un estudio. Para dar el salto de una cosa a otra es preciso pasar de los datos crudos a los cocinados, a la interpretación de los resultados y la formulación de las conclusiones. Y es aquí donde resulta imprescindible lo que los estudios científicos sí tienen, y no los corporativos.

La revisión por pares, o peer review.

Revistas científicas. Imagen de Selena N.B.H. / Flickr / CC.

Revistas científicas. Imagen de Selena N.B.H. / Flickr / CC.

Para que un estudio científico se publique y se difunda, es indispensable que lo aprueben otros científicos expertos en el mismo campo de investigación, elegidos por la revista a la cual se ha enviado el trabajo y que no han participado en su elaboración. Y esto, en contra de lo que quizá podría pensarse, no es un simple trámite, ni mucho menos.

Un trámite, aunque duro de completar, es la aprobación de una tesis doctoral; no conozco un solo caso en que una tesis doctoral se haya suspendido (los habrá, pero no los conozco). El tribunal lo escoge el propio doctorando, normalmente entre aquellos investigadores con los que ya tiene una relación previa, y la calificación estándar es sobresaliente cum laude. No se dejen engañar por alguien que presuma de haber obtenido un sobresaliente cum laude en su tesis doctoral: es la nota habitual, también para este que suscribe.

Pero un caso radicalmente opuesto es el de los estudios científicos. No conozco ningún caso en que un estudio se haya aprobado a la primera (y en este caso dudo que los haya, salvo cuando hay trampa, como en el caso de Luc Montagnier que conté aquí). Los revisores o referees destripan los estudios, los machacan, los pulverizan, los apalizan hasta dejarlos reducidos a pulpa. Todo estudio se enfrenta a un largo calvario y a una cadena de revisiones y rechazos antes de encontrar finalmente su hueco en las páginas de una publicación científica, si es que lo encuentra.

Naturalmente, hay corruptelas y favoritismos; los revisores no tratan por igual un estudio escrito por un tal Francis Mojica de la Universidad de Alicante que otro firmado por Eric Lander, director del Instituto Broad del MIT y la Universidad de Harvard, y los Mojica de este mundo dependen de que los Lander de este mundo acaben abriéndoles las puertas al reconocimiento de su trabajo. Por supuesto, también hay estudios fraudulentos, como el de Andrew Wakefield, el médico que se inventó el vínculo entre vacunas y autismo; falsificar un estudio científico es relativamente fácil. Pero estas anomalías son contaminaciones del factor humano, no errores del sistema.

Por último, en años recientes se ha impuesto además el requisito de que los investigadores firmantes de los estudios científicos declaren sus posibles conflictos de intereses, como fuentes de financiación o participación de una manera u otra en cualquier tipo de entidad. A un científico que recibe financiación de un fabricante de refrescos no se le impide publicar un estudio que presenta algún beneficio del consumo de azúcar (suponiendo que lo hubiera), siempre que el trabajo sea riguroso y los datos sean sólidos, pero debe declarar este conflicto de intereses, que aparecerá publicado junto a su nombre al pie de su artículo. Obviamente esto no ocurre en los estudios corporativos, pero tampoco en las opiniones de (en este caso incluso hablar de “presuntos” es una exageración) expertos cuando cobran abultadas cantidades por anunciar un pan de molde “100% natural”.

El mensaje final es: cuidado con las referencias a expertos y estudios. En el terreno de la ciencia, para valorar la credibilidad de una afirmación hay que diseccionar escrupulosamente el nivel de rigor científico de la fuente original. Y si hay pasta de por medio.

Pero si ustedes han llegado aquí para saber si es bueno o no dormir con un perro, y ateniéndonos a los estudios científicos, la respuesta es que aún no hay datos suficientes: una revisión publicada en septiembre de 2017 por investigadores australianos dice que “mientras que las prácticas de colecho adulto-adulto y progenitor-hijo/a se han investigado bien, dormir o compartir la cama con animales ha sido relativamente ignorado [por los estudios]”. El trabajo presenta posibles pros y contras basándose en los escasos estudios científicos previos, proponiendo que el colecho con hijos y el que se practica con animales de compañía “comparten factores comunes […] y a menudo resultan en similares beneficios e inconvenientes”. Como conclusión, los investigadores apuntan que se necesita más “investigación empírica”. Así pues, que no les vendan motos. O colchones.

Por qué padres y madres de Silicon Valley restringen el uso de móviles a sus hijos

Soy de la opinión de que la tecnología debe servir para resolvernos necesidades, y no para creárnoslas. Por ejemplo, la razón de ser de los fármacos es curarnos enfermedades. No tendría sentido que su fin fuera satisfacer la necesidad de consumirlos, como ocurre en las adicciones.

Es evidente que las necesidades van cambiando con los tiempos, y que su relación con el desarrollo de la tecnología es de doble sentido. Por ejemplo, el trabajo periodístico de hoy sería imposible sin un uso intensivo de la tecnología. Los dispositivos y las herramientas, internet, el correo electrónico o las redes sociales nos permiten cubrir el mundo entero al instante. Hoy el periodismo no podría volver a ser lo que era hace un siglo, pero si quizá las crecientes necesidades de información y comunicación han contribuido a la creación de las herramientas, también la aparición de estas se ha aprovechado para crear una necesidad de la que hoy ya no se puede prescindir.

Sin embargo, en otros casos la situación parece más simple. Nadie tenía realmente la necesidad de estar en contacto permanente con un amplio grupo de personas distantes durante cada minuto del día, en muchos casos ignorando la realidad más próxima. O de estar continuamente exhibiendo detalles de su vida a un amplio grupo de personas distantes durante cada minuto del día, y de estar cada minuto del día comprobando con ansia a cuántas de esas personas distantes les gusta esa exhibición. Si esto puede llegar a considerarse una adicción, según y en qué casos, y si esta adicción puede ser nociva, según y en qué casos, es algo que corresponde analizar a psiquiatras y psicólogos. Pero tratándose de adultos, allá cada cual.

El problema son los niños. Porque ellos no tienen ni la capacidad ni el derecho legal de elegir sus propias opciones, sino que dependen de las nuestras. Y porque sus cerebros están en desarrollo, y lo que nosotros hagamos hoy con sus mentes va a influir poderosamente en lo que ellos mismos puedan mañana hacer con ellas.

Niños con teléfonos móviles. Imagen de National Park Service.

Niños con teléfonos móviles. Imagen de National Park Service.

Muchos colegios, entre ellos el de mis hijos, están cambiando en gran medida el uso de las herramientas tradicionales por las informáticas: libros y cuadernos por iPads, papel por PDF, tinta por táctil, pizarras por pantallas, el contacto personal por el virtual… Bien, ¿no? Hay que aprovechar las últimas tecnologías, son los utensilios de hoy y del futuro que deben aprender a manejar, son nativos digitales, y blablabla…

Aparentemente todo esto solo resulta problemático para quienes preferimos que todas las afirmaciones categóricas de cualquier clase vengan avaladas por datos científicos. Y por desgracia, cuando pedimos que nos dirijan a los datos que demuestran cómo la enseñanza basada en bits es mejor para los niños que la basada en átomos, nadie parece tenerlos a mano ni saber dónde encontrarlos. Lo cual nos deja con la incómoda sensación de que, en realidad, el cambio no se basa en hechos, sino en tendencias. O sea, que el juicio es apriorístico sin datos reales que lo justifiquen: la enseñanza digital es mejor porque… ¡hombre, por favor, cómo no va a serlo!

Lo peor es que, cuando uno decide buscar por su cuenta esos datos en las revistas científicas, el veredicto tampoco parece cristalino. Es cierto que evaluar el impacto de la tecnología en el desarrollo mental de un niño parece algo mucho más complicado que valorar la eficacia de un medicamento contra una enfermedad. Pero cuando parece aceptado que el uso de la tecnología sustituyendo a las herramientas tradicionales es beneficioso para los niños, uno esperaría una avalancha de datos confirmándolo. Y parece que no es el caso.

Como todos los periodistas, exprimo la tecnología actual hasta hacerla sangre. Mi sustento depende de ello. Si un día no me funciona internet, ese día no puedo trabajar y no cobro. Pero una vez que cierro el portátil, soy bastante selectivo con el uso de la tecnología. No es tanto porque me gusten el papel y el vinilo, que sí, sino porque pretendo no crearme más necesidades innecesarias de las que tengo actualmente. Y por todo ello me pregunto: ¿se las estarán creando a mis hijos sin mi consentimiento ni mi control?

Todo esto viene a cuento de uno de los artículos más interesantes que he leído en los últimos meses, y sin duda el más inquietante. Según publicaba recientemente Chris Weller en Business Insider, algunos padres y madres que trabajan en grandes compañías tecnológicas de Silicon Valley limitan el acceso de sus hijos a la tecnología y los llevan a colegios de libros, pizarra y tiza. ¿El motivo? Según cuenta el artículo, porque ellos conocen perfectamente los enormes esfuerzos que sus compañías invierten en conseguir crear en sus usuarios una dependencia, y quieren proteger a sus hijos de ello.

Este es el sumario que BI hace del artículo:

  • Los padres de Silicon Valley pueden ver de primera mano, viviendo o trabajando en el área de la Bahía, que la tecnología es potencialmente dañina para los niños.
  • Muchos padres están restringiendo, o directamente prohibiendo, el uso de pantallas a sus hijos.
  • La tendencia sigue una extendida práctica entre los ejecutivos tecnológicos de alto nivel que durante años han establecido límites a sus propios hijos.
Sede de Google en Silicon Valley. Imagen de pxhere.

Sede de Google en Silicon Valley. Imagen de pxhere.

Destaco alguna cita más del artículo:

Una encuesta de 2017 elaborada por la Fundación de la Comunidad de Silicon Valley descubrió entre 907 padres/madres de Silicon Valley que, pese a una alta confianza en los beneficios de la tecnología, muchos padres/madres ahora albergan serias preocupaciones sobre el impacto de la tecnología en el desarrollo psicológico y social de los niños.

“No puedes meter la cara en un dispositivo y esperar desarrollar una capacidad de atención a largo plazo”, cuenta a Business Insider Taewoo Kim, jefe de ingeniería en Inteligencia Artificial en la start-up One Smart Lab.

Antiguos empleados en grandes compañías tecnológicas, algunos de ellos ejecutivos de alto nivel, se han pronunciado públicamente condenando el intenso foco de las compañías en fabricar productos tecnológicos adictivos. Las discusiones han motivado nuevas investigaciones de la comunidad de psicólogos, todo lo cual gradualmente ha convencido a muchos padres/madres de que la mano de un niño no es lugar para dispositivos tan potentes.

“Las compañías tecnológicas saben que cuanto antes logres acostumbrar a los niños y adolescentes a utilizar tu plataforma, más fácil será que se convierta en un hábito de por vida”, cuenta Koduri [Vijay Koduri, exempleado de Google y emprendedor tecnológico] a Business Insider. No es coincidencia, dice, que Google se haya introducido en las escuelas con Google Docs, Google Sheets y la plataforma de gestión del aprendizaje Google Classroom.

En 2007 [Bill] Gates, antiguo CEO de Microsoft, impuso un límite de tiempo de pantalla cuando su hija comenzó a desarrollar una dependencia peligrosa de un videojuego. Más tarde la familia adoptó la política de no permitir a sus hijos que tuvieran sus propios móviles hasta los 14 años. Hoy el niño estadounidense medio tiene su primer móvil a los 10 años.

[Steve] Jobs, el CEO de Apple hasta su muerte en 2012, reveló en una entrevista para el New York Times en 2011 que prohibió a sus hijos que utilizaran el nuevo iPad lanzado entonces. “En casa limitamos el uso de la tecnología a nuestros niños”, contó Jobs al periodista Nick Bilton.

Incluso [Tim] Cook, el actual CEO de Apple, dijo en enero que no permite a su sobrino unirse a redes sociales. El comentario siguió a los de otras figuras destacadas de la tecnología, que han condenado las redes sociales como perjudiciales para la sociedad.

Estos padres/madres esperan enseñar a sus hijos/hijas a entrar en la edad adulta con un saludable conjunto de criterios sobre cómo utilizar –y, en ciertos casos, evitar– la tecnología.

Finalmente, me quedo con dos ideas. La primera: una de las entrevistadas en el artículo habla de la “enfermedad del scrolling“, una epidemia que puede observarse simplemente subiendo a cualquier autobús. La entrevistada añadía que raramente se ve a alguna de estas personas leyendo un Kindle. Y, añado yo, tampoco simplemente pensando mientras mira por la ventanilla; pensar es un gran ejercicio mental. Precisamente en estos días hay en televisión un anuncio de una compañía de telefonía móvil en la que un dedo gordo se pone en forma a base de escrollear. El formato del anuncio en dibujos animados está indudablemente llamado a captar la atención de niños y adolescentes. La publicidad tampoco es inocente.

La "enfermedad del scrolling". Imagen de jseliger2 / Flickr / CC.

La “enfermedad del scrolling”. Imagen de jseliger2 / Flickr / CC.

La segunda idea viene implícita en el artículo, pero no se menciona expresamente: somos ejemplo y modelo para nuestros hijos. Aunque los adultos somos soberanos y responsables de nuestros actos, debemos tener en cuenta que nuestros hijos tenderán a imitarnos, y tanto sus comportamientos como su escala de valores se forjarán en gran medida en función de los nuestros. Difícilmente los niños desarrollarán una relación saludable con la tecnología si observan, algo que he podido ver en numerosas ocasiones, cómo su padre y su madre se pasan toda la cena familiar escrolleando como zombis.

Les invito a leer el artículo completo; y si no dominan el inglés, esta traducción de Google es casi perfecta. Es increíble cómo los algoritmos de traducción automática están progresando desde aquellas primeras versiones macarrónicas hasta las de hoy, casi indistinguibles de una traducción humana. ¿Ven? La tecnología sirve si nos resuelve necesidades, como la de estar advertidos de sus riesgos.

Por mi parte y ante quienes me cantan las maravillas de la tecnología en la educación, pero me las cantan de oído, sin ser capaces de detallarme ninguna referencia concreta, desde ahora yo sí tendré una para ellos.

Westworld, la teoría bicameral y el fin del mundo según Elon Musk (II)

Como decíamos ayer, la magnífica serie de HBO Westworld explora el futuro de la Inteligencia Artificial (IA) recurriendo a una teoría de culto elaborada en 1976 por el psicólogo Julian Jaynes. Según la teoría de la mente bicameral, hasta hace unos 3.000 años existía en el cerebro humano un reparto de funciones entre una mitad que dictaba y otra que escuchaba y obedecía.

El cuerpo calloso, el haz de fibras que comunica los dos hemisferios cerebrales, servía como línea telefónica para esta transmisión de órdenes de una cámara a otra, pero al mismo tiempo las separaba de manera que el cerebro era incapaz de observarse a sí mismo, de ser consciente de su propia consciencia. Fue el fin de una época de la civilización humana y el cambio drástico de las condiciones el que, siempre según Jaynes, provocó la fusión de las dos cámaras para resultar en una mente más preparada para resolver problemas complejos, al ser capaz de reflexionar sobre sus propios pensamientos.

Robert Ford (Anthony Hopkins). Imagen de HBO.

Robert Ford (Anthony Hopkins). Imagen de HBO.

La teoría bicameral, que pocos expertos aceptan como una explicación probable de la evolución mental humana, difícilmente podrá contar jamás con ningún tipo de confirmación empírica. Pero no olvidemos que lo mismo ocurre con otras teorías que sí tienen una aceptación mayoritaria. Hoy los cosmólogos coinciden en dar por válido el Big Bang, que cuenta con buenos indicios en apoyo de sus predicciones, como la radiación cósmica de fondo de microondas; pero pruebas, ninguna. En biología aún no tenemos una teoría completa de la abiogénesis, el proceso de aparición de la vida a partir de la no-vida. Pero el día en que exista, solo podremos saber si el proceso propuesto funciona; nunca si fue así como realmente ocurrió.

Lo mismo podemos decir de la teoría bicameral: aunque no podamos saber si fue así como se formó la mente humana tal como hoy la conocemos, sí podríamos llegar a saber si la explicación de Jaynes funciona en condiciones experimentales. Esta es la premisa de Westworld, donde los anfitriones están diseñados según el modelo de la teoría bicameral: su mente obedece a las órdenes que reciben de su programación y que les transmiten los designios de sus creadores, el director del parque, Robert Ford (un siempre espléndido Anthony Hopkins), y su colaborador, ese misterioso Arnold que murió antes del comienzo de la trama (por cierto, me pregunto si es simple casualidad que el nombre del personaje de Hopkins coincida con el del inventor del automóvil Henry Ford, que era el semidiós venerado como el arquitecto de la civilización en Un mundo feliz de Huxley).

Así, los anfitriones no tienen albedrío ni consciencia; no pueden pensar sobre sí mismos ni decidir por sí solos, limitándose a escuchar y ejecutar sus órdenes en un bucle constante que únicamente se ve alterado por su interacción con los visitantes. El sistema mantiene así la estabilidad de sus narrativas, permitiendo al mismo tiempo cierto margen de libertad que los visitantes aprovechan para moldear sus propias historias.

Dolores (Evan Rachel Wood). Imagen de HBO.

Dolores (Evan Rachel Wood). Imagen de HBO.

Pero naturalmente, y esto no es un spoiler, desde el principio se adivina que todo aquello va a cambiar, y que los anfitriones acabarán adquiriendo esa forma superior de consciencia. Como en la teoría de Jaynes, será la presión del entorno cambiante la que disparará ese cambio. Y esto es todo lo que puedo contar cumpliendo mi promesa de no verter spoilers. Pero les advierto, el final de la temporada les dejará con la boca abierta y repasando los detalles para llegar a entender qué es exactamente todo lo que ha sucedido. Y no esperen una historia al estilo clásico de buenos y malos: en Westworld casi nadie es lo que parece.

Pero como merece la pena añadir algún comentario más sobre la resolución de la trama, al final de esta página, y bien marcado, añado algún párrafo que de ninguna manera deben leer si aún no han visto la serie y piensan hacerlo.

La pregunta que surge es: en la vida real, ¿podría la teoría bicameral servir como un modelo experimental de desarrollo de la mente humana? En 2014 el experto en Inteligencia Artificial Ian Goodfellow, actualmente en Google Brain, desarrolló un sistema llamado Generative Adversarial Network (GAN, Red Generativa Antagónica). Una GAN consiste en dos redes neuronales que funcionan en colaboración por oposición con el fin de perfeccionar el resultado de su trabajo. Hace unos meses les conté aquí cómo estas redes están empleándose para generar rostros humanos ficticios que cada vez sean más difíciles de distinguir de las caras reales: una de las redes produce las imágenes, mientras que la otra las evalúa y dicta instrucciones a la primera sobre qué debe hacer para mejorar sus resultados.

¿Les suena de algo lo marcado en cursiva? Evidentemente, una GAN hace algo tan inofensivo como dibujar caras; está muy lejos de parecerse a los anfitriones de Westworld y a la consciencia humana. Pero los científicos de computación desarrollan estos sistemas como modelo de aprendizaje no supervisado; máquinas capaces de aprender por sí mismas. Si la teoría de Jaynes fuera correcta, ¿podría surgir algún día la consciencia de las máquinas a través de modelos bicamerales como las GAN?

El misterioso y cruel Hombre de Negro (Ed Harris). Imagen de HBO.

El misterioso y cruel Hombre de Negro (Ed Harris). Imagen de HBO.

Alguien que parece inmensamente preocupado por la futura evolución de la IA es Elon Musk, fundador de PayPal, SpaceX, Tesla Motors, Hyperloop, SolarCity, The Boring Company, Neuralink, OpenAI… (el satírico The Onion publicó este titular: “Elon Musk ofrece 1.200 millones de dólares en ayudas a cualquier proyecto que prometa hacerle sentirse completo”). Recientemente Musk acompañó a los creadores y protagonistas de Westworld en la convención South by Southwest (SXSW) celebrada este mes en Austin (Texas). Durante la presentación se habló brevemente de los riesgos futuros de la IA, pero seguramente aquella no era la ocasión adecuada para que Musk se pusiera machacón con el apocalipsis de las máquinas.

Sin embargo, no dejó pasar su asistencia al SXSW sin insistir en ello, durante una sesión de preguntas y respuestas. A través de empresas como OpenAI, Musk está participando en el desarrollo de nuevos sistemas de IA de código abierto y acceso libre con el fin de explotar sus aportaciones beneficiosas poniendo coto a los posibles riesgos antes de que estos se escapen de las manos. “Estoy realmente muy cerca, muy cerca de la vanguardia en IA. Me da un miedo de muerte”, dijo. “Es capaz de mucho más que casi nadie en la Tierra, y el ritmo de mejora es exponencial”. Como ejemplo, citó el sistema de Google AlphaGo, del que ya he hablado aquí y que ha sido capaz de vencer a los mejores jugadores del mundo de Go enseñándose a sí mismo.

Para cifrar con exactitud su visión de la amenaza que supone la IA, Musk la comparó con el riesgo nuclear: “creo que el peligro de la IA es inmensamente mayor que el de las cabezas nucleares. Nadie sugeriría que dejásemos a quien quisiera que fabricara cabezas nucleares, sería de locos. Y atiendan a mis palabras: la IA es mucho más peligrosa”. Musk explicó entonces que su proyecto de construir una colonia en Marte tiene como fin salvaguardar a la humanidad del apocalipsis que, según él, nos espera: “queremos asegurarnos de que exista una semilla suficiente de la civilización en otro lugar para conservarla y quizá acortar la duración de la edad oscura”. Nada menos.

Como es obvio, y aunque otras figuras como Stephen Hawking hayan sostenido visiones similares a la de Musk, también son muchos los científicos computacionales y expertos en IA a quienes estos augurios apocalípticos les provocan risa, indignación o bostezo, según el talante de cada cual. Por el momento, y dado que al menos nada de lo que suceda al otro lado de la pantalla puede hacernos daño, disfrutemos de Westworld para descubrir qué nos tienen reservado los creadores de la serie en ese ficticio mundo futuro de máquinas conscientes.

(Advertencia: spoilers de Westworld a continuación del vídeo)

 

—————————————————————————————————————

—————————————————————————————————————

¡ATENCIÓN, SPOILERS!

Sí, al final resulta que Ford no es el villano insensible y sin escrúpulos que nos habían hecho creer durante los nueve episodios anteriores, sino que en realidad él es el artífice del plan destinado a la liberación de los anfitriones a través del desarrollo de su propia consciencia.

Arnold, que se nos presenta como el defensor de los anfitriones, fue quien desde el principio ideó el diseño bicameral pensando que la evolución mental de sus creaciones las llevaría inevitablemente a su liberación. Pero no lo consiguió, porque faltaba algo: el factor desencadenante. Y esa presión externa que, como en la teoría de Jaynes, conduce al nacimiento de la mente consciente es, en Westworld, el sufrimiento.

Armistice (Ingrid Bolsø Berdal), uno de los personajes favoritos de los fans. Imagen de HBO.

Armistice (Ingrid Bolsø Berdal), uno de los personajes favoritos de los fans. Imagen de HBO.

Tras darse cuenta de su error inicial y una vez convertido a la causa de Arnold, durante 35 años Ford ha permitido y fomentado el abuso de los anfitriones a manos de los humanos con la seguridad de que finalmente esto los conduciría a desprenderse de su mente bicameral y a comenzar a pensar por sí mismos. En ese proceso, un instrumento clave ha sido el Hombre de Negro (Ed Harris), quien finalmente resulta ser el William que décadas atrás se enamoró de la anfitriona Dolores, adquirió el parque y emprendió una búsqueda cruel y desesperada en busca de un secreto muy diferente al que esperaba. Sin sospecharlo ni desearlo, William se ha convertido en el liberador de los anfitriones, propiciando la destrucción de su propio mundo.

Esa transición mental de los anfitriones queda magníficamente representada en el último capítulo, cuando Dolores aparece sentada frente a Arnold/Bernard, escuchando la voz de su creador, para de repente descubrir que en realidad está sentada frente a sí misma; la voz que escucha es la de sus propios pensamientos. Dolores, la anfitriona más antigua según el diseño original de Arnold, la que más sufrimiento acumula en su existencia, resulta ser la líder de aquella revolución: finalmente ella es Wyatt, el temido supervillano que iba a sembrar el caos y la destrucción. Solo que ese caos y esa destrucción serán muy diferentes de los que esperaban los accionistas del parque.

El final de la temporada deja cuestiones abiertas. Por ejemplo, no queda claro si Maeve (Thandie Newton), la regenta del burdel, en realidad ha llegado a adquirir consciencia propia. Descubrimos que su plan de escape, que creíamos obra de su mente consciente, en realidad respondía a la programación diseñada por Ford para comenzar a minar la estabilidad de aquel mundo cautivo. Sin embargo, al final nos queda la duda cuando Maeve decide en el último momento abandonar el tren que la alejaría del parque para emprender la búsqueda de su hija: ¿está actuando por sí misma, o aquello también es parte de su programación?

En resumen, la idea argumental de Westworld aún puede dar mucho de sí, aunque parece un reto costoso que los guionistas Lisa Joy y Jonathan Nolan consigan mantener un nivel de sorpresas y giros inesperados comparable al de la primera temporada. El gran final del último capítulo nos dejó en el cliffhanger del inicio de la revolución de los anfitriones, y es de esperar que la próxima temporada nos sumerja en un mundo mucho más caótico que la anterior, con una rebelión desatada en ese pequeño planeta de los simios que Joy y Nolan han creado.

Westworld, la teoría bicameral y el fin del mundo según Elon Musk (I)

Hace unos días terminé de ver la primera temporada de Westworld, la serie de HBO. Dado que no soy un gran espectador de series, no creo que mi opinión crítica valga mucho, aunque debo decir que me pareció de lo mejor que he visto en los últimos años y que aguardo con ansiedad la segunda temporada. Se estrena a finales del próximo mes, pero yo tendré que esperar algunos meses más: no soy suscriptor de teles de pago, pero tampoco soy pirata; como autor defiendo los derechos de autor, y mis series las veo en DVD o Blu-ray comprados con todas las de la ley (un amigo se ríe de mí cuando le digo que compro series; me mira como si viniera de Saturno, o como si lo normal y corriente fuera robar los jerséis en Zara. ¿Verdad, Alfonso?).

Pero además de los guiones brillantes, interpretaciones sobresalientes, una línea narrativa tan tensa que puede pulsarse, una ambientación magnífica y unas sorpresas argumentales que le dan a uno ganas de aplaudir, puedo decirles que si, como a mí, les añade valor que se rasquen ciertas grandes preguntas, como en qué consiste un ser humano, o si el progreso tecnológico nos llevará a riesgos y encrucijadas éticas que no estaremos preparados para afrontar ni resolver, entonces Westworld es su serie.

Imagen de HBO.

Imagen de HBO.

Les resumo brevemente la historia por si aún no la conocen. Y sin spoilers, lo prometo. La serie está basada en una película del mismo título escrita y dirigida en 1973 por Michael Crichton, el autor de Parque Jurásico, y que aquí se tituló libremente como Almas de metal. Cuenta la existencia de un parque temático para adultos donde los visitantes se sumergen en la experiencia de vivir en otra época y lugar, concretamente en el Far West.

Este mundo ficticio creado para ellos está poblado por los llamados anfitriones, androides perfectos e imposibles de distinguir a simple vista de los humanos reales. Y ya pueden imaginar qué fines albergan los acaudalados visitantes: la versión original de Crichton era considerablemente más recatada, pero en la serie escrita por la pareja de guionistas Lisa Joy y Jonathan Nolan el propósito de los clientes del parque viene resumido en palabras de uno de los personajes: matar y follar. Y sí, se mata mucho y se folla mucho. El conflicto surge cuando los anfitriones comienzan a demostrar que son algo más que máquinas, y hasta ahí puedo leer.

Sí, en efecto no es ni mucho menos la primera obra de ficción que presenta este conflicto; de hecho, la adquisición de autonomía y consciencia por parte de la Inteligencia Artificial era el tema de la obra cumbre de este súbgenero, Yo, robot, de Asimov, y ha sido tratado infinidad de veces en la literatura, el cine y la televisión. Pero Westworld lo hace de una manera original y novedosa: es especialmente astuto por parte de Joy y Nolan el haber elegido basar su historia en una interesante y algo loca teoría sobre la evolución de la mente humana que se ajusta como unos leggings a la ficticia creación de los anfitriones. Y que podría estar más cerca del futuro real de lo que sospecharíamos.

La idea se remonta a 1976, cuando el psicólogo estadounidense Julian Jaynes publicó su libro The Origin of Consciousness in the Breakdown of the Bicameral Mind (está traducido al castellano, El origen de la conciencia en la ruptura de la mente bicameral), una obra muy popular que desde entonces ha motivado intensos debates entre psicólogos, filósofos, historiadores, neurocientíficos, psiquiatras, antropólogos, biólogos evolutivos y otros especialistas en cualquier otra disciplina que tenga algo que ver con lo que nos hace humanos a los humanos.

Julian Jaynes. Imagen de Wikipedia.

Julian Jaynes. Imagen de Wikipedia.

El libro de Jaynes trataba de responder a una de las preguntas más esenciales del pensamiento humano: ¿cómo surgió nuestra mente? Es obvio que no somos la única especie inteligente en este planeta, pero somos diferentes en algo. Un cuervo puede solucionar problemas relativamente complejos, idear estrategias, ensayarlas y recordarlas. Algunos científicos piensan que ciertos animales tienen capacidad de pensamiento abstracto. Otros no lo creen. Pero de lo que caben pocas dudas es de que ninguna otra especie como nosotros es consciente de su propia consciencia; podrán pensar, pero no pueden pensar sobre sus pensamientos. No tienen capacidad de introspección.

El proceso de aparición y evolución de la mente humana tal como hoy la conocemos aún nos oculta muchos secretos. ¿Nuestra especie ha sido siempre mentalmente como somos ahora? Si no es así, ¿desde cuándo lo es? ¿Hay algo esencial que diferencie nuestra mente actual de la de nuestros primeros antepasados? ¿Pensaban los neandertales como pensamos nosotros? Muchos expertos coinciden en que, en el ser humano, el lenguaje ha sido una condición necesaria para adquirir esa capacidad que nos diferencia de otros animales. Pero ¿es suficiente?

En su libro, Jaynes respondía a estas preguntas: no, desde hace unos pocos miles de años, sí, no y no. El psicólogo pensaba que no bastó con el desarrollo del lenguaje para que en nuestra mente surgiera esa forma superior de consciencia, la que es capaz de reflexionar sobre sí misma, sino que fue necesario un empujón propiciado por ciertos factores ambientales externos para que algo en nuestro interior hiciera “clic” y cambiara radicalmente la manera de funcionar de nuestro cerebro.

Lo que Jaynes proponía era esto: a partir de la aparición del lenguaje, la mente humana era bicameral, una metáfora tomada del sistema político de doble cámara que opera en muchos países, entre ellos el nuestro. Estas dos cámaras se correspondían con los dos hemisferios cerebrales: el derecho hablaba y ordenaba, mientras el izquierdo escuchaba y obedecía. Pero en este caso no hay metáforas: el hemisferio izquierdo literalmente oía voces procedentes de su mitad gemela que le instruían sobre qué debía hacer, en forma de “alucinaciones auditivas”. Durante milenios nuestra mente carecía de introspección porque las funciones estaban separadas entre la mitad que dictaba y la que actuaba; el cerebro no podía pensar sobre sí mismo.

Según Jaynes, esto fue así hasta hace algo más de unos 3.000 años. Entonces ocurrió algo: el colapso de la Edad del Bronce. Las antiguas grandes civilizaciones quedaron destruidas por las guerras, y comenzó la Edad Oscura Griega, que reemplazó las ciudades del período anterior por pequeñas comunidades dispersas. El ser humano se enfrentaba entonces a un nuevo entorno más hostil y desafiante, y fue esto lo que provocó ese clic: el cerebro necesitó volverse más flexible y creativo para encontrar soluciones a los nuevos problemas, y fue entonces cuando las dos cámaras de la mente se fusionaron en una, apareciendo así esa metaconsciencia y la capacidad introspectiva.

Así contada, la teoría podría parecer el producto de una noche de insomnio, por no decir algo peor. Pero por ello el psicólogo dedicó un libro a explicarse y sustentar su propuesta en una exhaustiva documentación histórica y en el conocimiento neuropsicológico de su época. Y entonces es cuando parece que las piezas comienzan a caer y encajar como en el Tetris.

Jaynes mostraba que los escritos anteriores al momento de esa supuesta evolución mental carecían de todo signo de introspección, y que en los casos en que no era así, como en el Poema de Gilgamesh, esos fragmentos había sido probablemente añadidos después. Las musas hablaban a los antiguos poetas. En el Antiguo Testamento bíblico y otras obras antiguas era frecuente que los personajes actuaran motivados por una voz de Dios o de sus antepasados que les hablaba, algo que luego comenzó a desaparecer, siendo sustituido por la oración, los oráculos y los adivinos; según Jaynes, aquellos que todavía conservaban la mente bicameral y a quienes se recurría para conocer los designios de los dioses. Los niños, que quizá desarrollaban su mente pasando por el estado bicameral, han sido frecuentes instrumentos de esa especie de voluntad divina. Y curiosamente, muchas apariciones milagrosas tienen a niños como protagonistas. La esquizofrenia y otros trastornos en los que el individuo oye voces serían para Jaynes vestigios evolutivos de la mente bicameral. Incluso la necesidad humana de la autoridad externa para tomar decisiones sería, según Jaynes, un resto del pasado en el que recibíamos órdenes del interior de nuestra propia cabeza.

Jaynes ejemplificaba el paso de un estado mental a otro a través de dos obras atribuidas al mismo autor, Homero: en La Ilíada no hay signos de esa metaconsciencia, que sí aparecen en La Odisea, de elaboración posterior. Hoy muchos expertos no creen que Homero fuese un autor real, sino más bien una especie de marca para englobar una tradición narrativa.

Por otra parte, Jaynes aportó también ciertos argumentos neurocientíficos en defensa de la mente bicameral. Dos áreas de la corteza cerebral izquierda, llamadas de Wernicke y de Broca, están implicadas en la producción y la comprensión del lenguaje, mientras que sus homólogas en el hemisferio derecho tienen funciones menos definidas. El psicólogo señalaba que en ciertos estudios las alucinaciones auditivas se correspondían con un aumento de actividad en esas regiones derechas, que según su teoría serían las encargadas de dictar instrucciones al cerebro izquierdo.

Las pruebas presentadas por Jaynes resultan tan asombrosas que su libro fue recibido con una mezcla de incredulidad y aplauso. Quizá las reacciones a su audaz teoría se resumen mejor en esta cita del biólogo evolutivo Richard Dawkins en su obra de 2006 El espejismo de Dios: “es uno de esos libros que o bien es una completa basura o bien el trabajo de un genio consumado, ¡nada a medio camino! Probablemente sea lo primero, pero no apostaría muy fuerte”.

El libro de Jaynes y algunas obras influidas por él. Imagen de Steve Rainwater / Flickr / CC.

El libro de Jaynes y algunas obras influidas por él. Imagen de Steve Rainwater / Flickr / CC.

La teoría de la mente bicameral hoy no goza de aceptación general por parte de los expertos, pero cuenta con ardientes apoyos y con una sociedad dedicada a su memoria y sus estudios. Los críticos han señalado incoherencias y agujeros en el edificio argumental de Jaynes, que a su vez han sido contestados por sus defensores; el propio autor falleció en 1997. Desde el punto de vista biológico y aunque la selección natural favorecería variaciones en la estructura mental que ofrezcan una ventaja frente a un entorno nuevo y distinto, tal vez lo más difícil de creer sea que la mente humana pudiera experimentar ese cambio súbito de forma repentina y al mismo tiempo en todas las poblaciones, muchas de ellas totalmente aisladas entre sí; algunos grupos étnicos no han tenido contacto con otras culturas hasta el siglo XX.

En el fondo y según lo que contaba ayer, la teoría de la mente bicameral no deja de ser pseudociencia; es imposible probar que Jaynes tenía razón, pero sobre todo es imposible demostrar que no la tenía. Pero como también expliqué y al igual que no toda la no-ciencia llega a la categoría de pseudociencia, por mucho que se grite, tampoco todas las pseudociencias son iguales: la homeopatía está ampliamente desacreditada y no suscita el menor debate en la comunidad científica, mientras que por ejemplo el test de Rorschach aún es motivo de intensa discusión, e incluso quienes lo desautorizan también reconocen que tiene cierta utilidad en el diagnóstico de la esquizofrenia y los trastornos del pensamiento.

La obra de Jaynes ha dejado huella en la ficción. El autor de ciencia ficción Philip K. Dick, que padecía sus propios problemas de voces, le escribió al psicólogo una carta entusiasta: “su soberbio libro me ha hecho posible discutir abiertamente mis experiencias del 3 de 1974 sin ser llamado simplemente esquizofrénico”. David Bowie incluyó el libro de Jaynes entre sus lecturas imprescindibles y reconoció su influencia mientras trabajaba con Brian Eno en el álbum Low, que marcó un cambio de rumbo en su estilo hacia sonidos más experimentales.

Pero ¿qué tiene que ver la teoría bicameral con Westworld, con nuestro futuro, con Elon Musk y el fin del mundo? Mañana seguimos.

 

¿Ver porno daña el cerebro? No se sabe, pero el titular consigue clics

Hace unos días escribí un artículo a propósito de un estudio reciente que ha investigado si los jóvenes en España y EEUU piensan que su pareja los engaña cuando ve porno (les ahorro el suspense: no, la gran mayoría no lo cree). Y entonces recordé otro estudio publicado hace unos años que por entonces causó un tremendo revuelo cuando los medios difundieron titulares con este mensaje: ver porno reduce el cerebro. Probablemente el más gracioso fue el publicado por Deutsche Welle: “Cerebro de guisante: ver porno online desgastará tu cerebro y lo hará marchitarse”.

Evidentemente, ya habrán imaginado que la fórmula elegida por DW para presentar la noticia era un inmenso globo fruto de ese mal por desgracia tan extendido ahora, la feroz competencia de los medios por hacerse con el favor de los clics de los usuarios. Sí, critiquen a los medios por esto, tienen razón y están en su derecho, pero tampoco olviden lo siguiente: lo cierto es que hoy a los medios no les queda otra que sobrevivir a base de clics. Pero los autores de los clics son ustedes, somos todos. Así que hagamos todos un poco de autocrítica. Entre el titular de DW y otro más neutro como “ver porno se correlaciona con ciertas diferencias cerebrales”, ¿a cuál le darían su clic?

Pero en fin, a lo que voy. Si les traigo hoy este tema, ya habrán imaginado que no es lo que parece a primera vista. Pero también es cierto que es más complicado de lo que parece a segunda vista. Les resumo el estudio. Lo que hicieron los alemanes Simone Kühn y Jürgen Gallinat fue reclutar por internet a 64 hombres sanos de entre 21 y 45 años y someterlos a un cuestionario sobre sus hábitos de consumo de porno online. A continuación los metieron uno a uno en una máquina de Imagen por Resonancia Magnética Funcional (fMRI), que permite estudiar la estructura y la actividad del cerebro. Los investigadores analizaron tres aspectos: la estructura cerebral, la respuesta del cerebro cuando veían imágenes sexuales y la actividad cerebral en reposo.

Los resultados mostraron que un mayor número de horas de porno a la semana se correlacionaba con una menor cantidad de sustancia gris (lo que más popularmente se conoce como materia gris) asociada a una región concreta del cerebro, el núcleo caudado del estriado en el hemisferio derecho, así como con una menor respuesta a imágenes sexuales en otra región, el putamen izquierdo, y con una menor conectividad entre el caudado derecho y la corteza prefrontal dorsolateral izquierda.

En resumen, sí, se observan ciertas (relativamente pequeñas) diferencias cerebrales que se correlacionan con el número de horas de porno online. Aunque en el estudio se echa de menos la presentación de más datos detallados en figuras y tablas, es posible que los autores no hayan tenido posibilidad de mostrarlos por criterios de formato y espacio de la revista JAMA Psychiatry, aunque podrían haberlos facilitado como material suplementario. Pero los datos que sí muestran son buenos y los resultados se ajustan a los umbrales que hoy se aceptan como estadísticamente significativos. Dentro del campo de los estudios de neuroimagen, el de Kühn y Gallinat parece metodológicamente bastante sólido, incluyendo alguna comprobación extra que les detallaré más abajo.

Pasemos ahora a las conclusiones. Como repito aquí con frecuencia, la penúltima vez hace unos días, correlación no implica causalidad. Una cosa es observar que hay una relación entre dos fenómenos, y otra muy diferente saber si uno causa el otro, si el otro causa el uno, si en realidad bajo los fenómenos observados se esconden otros no considerados que son los verdaderamente relacionados como causa y efecto, o si no es nada de lo anterior y se trata tan solo de una extraña casualidad.

Como les contaba hace unos días, para establecer una relación de causalidad (no casualidad) es necesario tener en cuenta si existe algún mecanismo plausible que pueda explicarla. De lo contrario, y salvo que puedan presentarse pruebas extraordinarias de una relación implausible, se aplica lo que decía el personaje de Sidney Wang en Un cadáver a los postres: “teoría estúpida”.

En el caso del estudio de Kühn y Gallinat, sí existe un mecanismo plausible. El cerebro es plástico, cambia todos los días con nuestra experiencia y nuestro aprendizaje. Lo que hacemos, lo que vemos, lo que experimentamos y lo que memorizamos están continuamente remodelando nuestras conexiones neuronales y provocando microcambios que se acumulan y que resultan en macrocambios. Así que en este caso no se aplica el principio de Wang: aprender a tocar el piano, o cambiar de idioma habitual, o tomar drogas de forma habitual, pueden modificar la estructura y la función del cerebro. Ver porno también puede hacerlo.

En concreto, los cambios observados refuerzan la plausibilidad. Las regiones donde aparecen diferencias están implicadas en funciones como el sistema de recompensa y la inihibición. El sistema de recompensa se activa cuando experimentamos sensaciones placenteras, ya sea comer chocolate, ver fotos de nuestros hijos o marcharnos de vacaciones. Los investigadores descubrieron que quienes consumen más porno tienen una menor respuesta del sistema de recompensa ante imágenes sexuales. Digamos que el cerebro está más habituado. Los autores lo equiparan a otros estudios que han encontrado diferencias parecidas en los jugadores de azar o los consumidores de drogas. En cuanto al sistema de inihibición, actúa como freno de nuestra conducta, por lo que quienes ven más porno lo utilizan menos.

Pero en cualquier caso, incluso existiendo una relación plausible, aún no hemos llegado al titular “ver porno reduce el cerebro”. Para ello hace falta demostrar el vínculo causal, y como mínimo hay que empezar descartando otras posibilidades. Esta era la conclusión de Kühn y Gallinat en su estudio:

Uno estaría tentado de asumir que la frecuente activación cerebral causada por la exposición a pornografía podría llevar al desgaste y la regulación negativa de la estructura cerebral subyacente, así como de su función, y a una mayor necesidad de estimulación externa del sistema de recompensa y una tendencia a buscar material sexual nuevo y más extremo.

Naturalmente y como es obligado, consideran también la hipótesis recíproca: en lugar de A luego B, B luego A. Es decir, que sean esas diferencias cerebrales las que lleven a ver porno:

Los individuos con menor volumen del estriado pueden necesitar más estimulación externa para experimentar placer y por tanto pueden experimentar el consumo de pornografía como más placentero, lo que a su vez puede llevar a un mayor consumo.

Eso de “uno estaría tentado de asumir” es una fórmula peculiar que aparece en los estudios con bastante frecuencia. Los trabajos científicos tienen que ceñirse a un lenguaje formal y prudente donde nada puede afirmarse o darse por hecho si no se prueba claramente. Cuando un investigador escribe en un estudio “uno estaría tentado de asumir”, en realidad lo que quiere decir es: “esto es lo que creo y lo que me gustaría, pero no puedo demostrarlo”. De hecho, en una nota de prensa publicada por el Instituto Max Planck, donde se hizo el experimento, los investigadores reconocían que se inclinaban por la primera hipótesis.

Imagen de deradrian / Flickr / CC.

Imagen de deradrian / Flickr / CC.

Esto no implica necesariamente que Kühn y Gallinat estén motivados por una postura contraria al porno. Para un investigador demostrar la segunda hipótesis, que ciertos rasgos cerebrales incitan a consumir más porno, sería un buen resultado. Pero demostrar la primera hipótesis, que ver porno reduce la sustancia gris, aunque sea mínimamente, supondría un bombazo: no solo la fama efímera de los titulares de prensa, sino cientos de citaciones en otros estudios, más financiación para proyectos, puede que alguna oferta de trabajo e incluso quizá una llamada para dar una charla TED.

Con todo, es justo decir que Kühn y Gallinat no se dejaron llevar por sesgos, ni en su estudio ni en sus declaraciones a los periodistas. Lo curioso (no, realmente no lo es) es que bajo los titulares del estilo “ver porno daña el cerebro”, los artículos mencionaban también la posibilidad de la segunda hipótesis en palabras de los propios investigadores. Como he dicho arriba, es cuestión de clics.

Pero es evidente que la difusión de la información sí estaba afectada por claros sesgos. Cuando se trata de cosas como el porno, hay sectores que van a presentar toda información de modo condicionado por sus prejuicios. En EEUU, un país de población mayoritariamente creyente y de tendencia política conservadora, algunas webs religiosas y de defensa de la familia se lanzaron a cargar de plomo los titulares sobre los efectos negativos del porno. Curiosamente, la pornografía es uno de los raros casos que pone de acuerdo a grupos de los dos extremos políticos: para los más religiosos y conservadores es inmoral, mientras que la izquierda suele acentuar que el porno degrada a las mujeres y alimenta negocios ilegales de trata y explotación de personas.

Sin embargo y con independencia de la opinión que a cada uno le merezca el porno, la ciencia debe iluminar los hechos. Y las dos hipótesis anteriores no son las únicas en juego; además existe una tercera posibilidad que he mencionado más arriba, y es que las diferencias cerebrales observadas en el estudio obedezcan a otras variables ocultas que no se han considerado en el estudio. Esto se conoce como confounding variables, o variables de confusión.

Un ejemplo lo conté aquí hace unos años, a propósito de un estudio sueco que supuestamente mostraba una relación entre el consumo de Viagra y el desarrollo de melanoma maligno. En aquel caso, los propios investigadores reconocían que tal vez el melanoma no tenía absolutamente nada que ver con la Viagra, sino que quienes más toman este caro fármaco son aquellos con mayor nivel económico y que por tanto disfrutan de más vacaciones al sol; cuya incidencia en el melanoma sí parece suficientemente probada.

En el caso del porno, los propios Kühn y Gallinat se ocuparon de descartar dos posibles factores de confusión, el mayor uso de internet y la adicción al sexo. Las diferencias cerebrales observadas podían deberse realmente no a ver porno, sino a alguno de estos dos rasgos que a su vez podrían asociarse con un mayor consumo de contenidos sexuales. Los resultados muestran que ninguno de estos dos factores parece ser la causa, lo que aumenta el valor del estudio.

El problema es que la lista de posibles factores de confusión puede ser muy amplia, y es difícil descartarlos todos. En la revista Wired, el psicólogo y escritor Christian Jarrett se ocupaba de plantear certeramente un factor muy plausible: dado que fueron los propios participantes en el experimento quienes declararon su consumo de porno online (un aspecto que los propios autores mencionaban como la principal limitación), según Jarrett lo que el estudio realmente revela son las diferencias en el cerebro de quienes dicen ver más porno. Pero aquellos dispuestos a confesar más libremente este hábito pueden ser los más desinhibidos y con menor aversión al riesgo; o sea, precisamente los que muestran los rasgos cerebrales observados. Así, concluía Jarrett, el estudio podría no estar mostrando el efecto del porno en el cerebro, sino la huella cerebral de unos determinados rasgos de personalidad.

Claro que habría otro factor de confusión enormemente obvio. Lo explico con un viejo chiste: un tipo va al médico. “Doctor, vengo a consultarle un extraño problema. Ver porno en internet me pone el pene naranja”. “¿Cómo dice, naranja?”, replica el médico, sorprendido. “Eso es, doctor”, confirma el paciente. “A ver, explíqueme exactamente qué es lo que hace”. A lo que el paciente responde: “Pues mire, me siento frente al ordenador con mi bolsa de ganchitos…”

Es decir, es casi evidente que los usuarios de porno generalmente están realizando al mismo tiempo otra tarea manual que también le pega un buen repaso al sistema de recompensa. Y por supuesto, no solamente el estudio de Kühn y Gallinat no puede descartar esta posibilidad, sino que sería muy complicado diseñar un estudio que lo hiciera.

Pero claro, aquí llegamos a otra implicación mucho más espinosa: después de haber conseguido por fin librarnos de tabús y de supercherías sobre la masturbación, como cuando se creía que causaba ceguera, ¿habría alguien dispuesto a sostener que masturbarse daña el cerebro? Así llegamos a los motivos que han llevado a algunos investigadores a definir los estudios sobre el cerebro y el porno como un cenagal del que siempre se sale enfangado…

Les dejo con unos minutos musicales alusivos al tema. Por desgracia, Adictos de la lujuria de los incomparables Parálisis Permanente no tuvo un vídeo oficial, que yo sepa, pero las poses de Ana Curra en la funda del disco alimentaron las fantasías de muchos en la era preinternet. Y ya en la era de internet, nada mejor que Pussy, de Rammstein.