Archivo de la categoría ‘Entrevista’

¿Es creíble el New Space? Dos autores de ciencia ficción opinan

El fundador de SpaceX, Elon Musk, pretende llevar el año próximo a una pareja de pasajeros en un vuelo alredor de la Luna, además de fundar una colonia en Marte en la próxima década. Otras empresas del llamado New Space, del que hablé hace unos días, quieren popularizar los vuelos espaciales, extraer recursos minerales extraterrestres o limpiar la órbita terrestre de la basura espacial acumulada. Pero ¿son creíbles todas estas promesas?

Hay quienes ya han hecho realidad objetivos como estos, aunque solo en las páginas de sus libros. Dicen que el papel lo aguanta todo, pero ciertos autores de ciencia ficción asientan sus obras sobre una formación y experiencia científicas que les convierten en augures privilegiados del futuro que nos espera.

Lo cual no implica que mi pregunta sobre el New Space tenga una respuesta inmediata y única. Prueba de ello es esta muestra de dos autores escogidos a los que he preguntado, y que les traigo hoy: David Brin y B. V. Larson. Ambos, escritores de ciencia ficción y científicos de formación. Brin es, además de ganador de premios como el Hugo y el Nebula (autor, entre otras, de Mensajero del Futuro, llevada al cine por Kevin Costner), astrofísico, asesor de la NASA y consultor futurólogo para varias corporaciones y agencias del gobierno de EEUU. Por su parte, Larson es una presencia habitual en la lista de los más vendidos de ciencia ficción de Amazon, pero además es profesor de ciencias de la  computación y antiguo consultor de DARPA, la agencia de investigación avanzada del Departamento de Defensa de EEUU.

Los escritores David Brin (izquierda) y B. V. Larson (derecha). Imágenes de Wikipedia y YouTube.

Los escritores David Brin (izquierda) y B. V. Larson (derecha). Imágenes de Wikipedia y YouTube.

Ambos sostienen opiniones opuestas sobre el futuro del New Space. Brin considera que la evolución de la aventura espacial desde los gobiernos a los operadores privados es algo natural que ya hemos visto antes en nuestra historia. “El príncipe Enrique el Navegante subvencionó la exploración naval portuguesa, y después las iniciativas privadas tomaron el relevo”, me dice. El autor recuerda otros ejemplos, como la aviación, y pronostica que “estamos entrando en una era en la que 50 años de inversión gubernamental en el espacio por fin van a dejar paso a una actividad motivada por el comercio, la ambición e incluso la diversión”.

Y no solo se trata de un proceso históricamente repetido, opina Brin, sino repetido con éxito. El autor destaca la reutilización de naves y cohetes como un hito conseguido por las compañías del New Space que facilitará enormemente el acceso al espacio en el futuro, aunque “nadie ha dicho que vaya a ser fácil”. Brin reconoce que los más entusiastas están prometiendo demasiado, pero afirma que “el progreso es indiscutible”.

En cambio, más pesimista se muestra Larson. Este autor admite que las promesas del New Space están captando eficazmente la atención de los medios y del público; “pero eso no cambiará los resultados”, añade.

¿Y cuáles serán para Larson estos resultados? “Yo diría que todas las ambiciones del New Space probablemente fracasarán”, sugiere. Como Brin, Larson también basa su argumento en la trayectoria histórica, pero en un sentido diferente. Según este autor, los cambios tecnológicos comienzan con una edad dorada de rápida innovación durante unos 50 años, seguida por un estancamiento que solo puede superarse con un gran nuevo descubrimiento o aplicación capaz de impulsar de nuevo el desarrollo tecnológico. “Hay incontables ejemplos”, sostiene Larson: la aviación avanzó de forma espectacular desde los hermanos Wright en 1903 hasta la aviación comercial. Pero “una vez que los aviones se hicieron comunes en los años 50, el progreso frenó; un avión de pasajeros hoy vuela a la misma velocidad y altitud que hace 50 años”.

Larson cita también el ejemplo de los ordenadores. “¿Qué hemos hecho con ellos en la última década? Los hemos hecho un poco más pequeños, un poco más rápidos, más conectados y más portátiles, pero eso es todo, solo refinamientos; el iPhone debutó en 2007, el portátil en los años 90, y funcionan esencialmente hoy igual que entonces”.

Lo mismo ocurre con los viajes espaciales, prosigue Larson. Desde la carrera espacial de los años 60 no han surgido innovaciones radicales; los propulsores de los cohetes y otros elementos son básicamente similares a como eran entonces. “Estamos estancados en un tiempo de espera”, dice, y solo podremos avanzar a la siguiente casilla, la popularización y el abaratamiento de los vuelos al espacio, con un cambio de enfoque o una nueva motivación económica que nos empuje hacia el espacio. Hasta entonces, “el coste superará al beneficio”, asegura el autor. “Este es el motivo por el que estas ideas sobre el New Space de las que oyes hablar siempre parecen desvanecerse”.

Dos expertos, dos posturas distintas. Pero nadie ha dicho que pronosticar el porvenir sea fácil. Por el momento, solo podemos preparar un bol de palomitas, sentarnos en el sofá y mirar cómo el futuro va pasando por nuestra pantalla.

«Quienes desmontamos el Blue Monday lo estamos manteniendo vivo»

Termina la semana que empezábamos con una de esas historias desprovistas de todo rastro de las mínimas cualidades de la noticia, como verdad, importancia o interés, pero que no obstante hacen relamerse de gusto a más de un redactor jefe: el Blue Monday.

El Blue Monday (lunes triste) es esa patraña de que existe un día, el tercer lunes del año, que es estadísticamente el más deprimente para la población en general. Aparte de lo descaradamente absurdo de la premisa, la historia vendida cada año en algunos medios es falsa: el Blue Monday no es fruto del trabajo científico de un científico, sino de una campaña publicitaria encargada por una agencia de viajes que contrató a un profesional del coaching para que lo firmara con su nombre.

Debo confesar que, a un servidor, la expresión Blue Monday solo le traía a la mente la canción de 1983 con la que New Order decidió enterrar definitivamente a Ian Curtis; hasta que rebusqué un poco sobre ese otro significado y me quedé patidifuso por el hecho de que algunos medios lo tomaran en serio. Y más aún por el hecho de que un organismo público, el gobierno canario, lo utilice como gancho publicitario, como si Canarias no tuviera suficientes atractivos turísticos para tener que recurrir a la seudociencia dando voz a quienes se lucran con ella.

Dean Burnett. Imagen de Cardiff University.

Dean Burnett. Imagen de Cardiff University.

Entre quienes más han batallado por dar a conocer la realidad sobre lo estulto del Blue Monday se encuentra Dean Burnett, neuropsicólogo de la Universidad de Cardiff (Reino Unido). Su relación con el Blue Monday comenzó cuando un periódico local le contactó para preguntarle por ello y luego tergiversó sus declaraciones para dar a entender que Burnett respaldaba la idea del día más triste del año, tal como el científico lo contó en su blog del diario The Guardian.

Después de aquello, Burnett ha continuado casi año tras año acudiendo a su cita con la fecha en el mismo blog. Y como en sus ratos libres también hace comedia, pues lo cuenta con gracia, la misma que gasta cuando escribe divulgación, como en su libro El cerebro idiota (edición española: Temas de Hoy, 2016).

Dado que Burnett conoce el cerebro humano mejor que la media, he aprovechado la ocasión para preguntarle brevemente sobre cómo funciona nuestro órgano pensante con cosas tan impensables como el Blue Monday.

¿Por qué triunfa la idea del Blue Monday?

Primero, pienso que su fuerza estriba en su relato. Por esta época del año todo el mundo se siente bajo, y esto les hace sentir que no es culpa suya, que es un fenómeno científico fuera de su control. Es relevante y quita la responsibilidad de sus manos, lo que para muchos es tranquilizador: «no necesito cambiar nada, no es culpa mía». Algo que siempre es agradable pensar. También puede actuar como justificación para la autoindulgencia, la gente se da caprichos porque es un día deprimente y eso.

Además, es tan simple que es muy memorable. Da a la gente la impresión de que  entienden cómo funcionan la mente y los estados de ánimo, y de que el mundo es más fácil de entender de lo que realmente es. No es el caso, pero es agradable pensarlo.

Y a fuerza de creer que es el día más triste del año, ¿puede convertirse para quienes así lo creen en una profecía autocumplida?

Definitivamente hay algo de eso. Probablemente es un poco como el viernes 13 [o martes 13]. Es imposible que un día sea desafortunado por norma, pero el sesgo de confirmación triunfa cuando la gente cree en ello. La mala suerte que cualquier otro día no tendría importancia tiene un especial significado porque es viernes 13, lo que demuestra que es un día desafortunado, así que la creencia persiste año tras año.

Igualmente, es normal sentirse triste o miserable en lo peor del invierno después de toda la diversión de la Navidad, así que no cabe duda de por qué se eligió ese día para el Blue Monday, pero una vez que la gente piensa que es un día especialmente deprimente, lo atribuirán al hecho de que es ese día, más que a razones más mundanas que son la causa real. Y así seguimos.

Lo cierto es que cada año muchos medios lo cuentan. Y aunque algunos lo hagamos para desmontarlo, no dejamos de darle visibilidad. ¿Deberíamos dejar de hablar de ello?

Es una pregunta espinosa. Mi postura ha sido dejar claro sin lugar a dudas que es una tontería, y lo he hecho de la manera más llamativa y altisonante que he podido en cualquier ocasión que he tenido. Pero también algunos años prefiero ignorarlo, ya que tengo la impresión de que quienes intentamos desmontarlo en realidad lo estamos manteniendo vivo, y que de otro modo habría decaído. Creo que ahora está demasiado instalado como para librarnos de ello, pero es posible que la gente vaya perdiendo el interés a lo largo del tiempo, y es algo en lo que debemos confiar.

«Un descubrimiento científico produce un subidón como tocar música punk»

Al hilo de mi artículo anterior sobre Milo Aukerman, he recordado que hace algo más de dos años le hice una breve entrevista de la que saqué un par de extractos para un reportaje sobre la relación entre ciencia y punk. Por entonces Aukerman aún trabajaba en DuPont. Creo que merece la pena traer aquí aquella pequeña entrevista, porque el líder de Descendents destacaba la visión recíproca de la que he tratado en esta miniserie: si el rock parece atraer especialmente a los científicos, la ciencia también puede atraer a los aficionados al rock; o en este caso, el punk. Así lo cuenta el líder de Descendents:

Milo Aukerman. Imagen de Twitter.

Milo Aukerman. Imagen de Twitter.

Uno de los lemas del punk era «No Future». ¿Su caso demuestra que sí lo había?

La idea de los punks como escoria tiene que cambiar, porque no refleja la realidad. Siempre he considerado el punk más como una música que como un estilo de vida, así que en este sentido es fácil moverse más allá de la caricatura estándar del «idiota inmaduro y drogadicto» ejemplificado por Sid Vicious, por poner un caso.

Entonces, ¿qué opina de la corriente más callejera y antisocial del punk?

No pretendo menospreciar el estilo de vida del punk callejero, pero eso es todo lo que es, un estilo de vida. Uno puede disfrutar de la música punk y aun así llevar una vida normal, estudiar, conseguir un trabajo, y todo ello sin modificaciones corporales ni maltratarse a uno mismo. Simplemente, los punks proceden de diferentes ambientes económicos, culturales y educativos, y todos deberían considerarse legítimos, y todos han contribuido a la democratización del punk como hoy lo conocemos.

¿En qué quedó entonces la rebeldía que ha sido el sello del punk?

Por supuesto, en el corazón del punk está la rebelión, pero uno puede rebelarse de muchas maneras. Rechazar las normas de la sociedad es una de ellas, pero el punk también consiste en la aceptación de la individualidad, y si un punk puede encontrar la felicidad en un trabajo y una familia, mejor para él. También me gustaría destacar que el punk es una salida creativa y una manera para los punks de sentirnos jóvenes, y si no hubiera sitio en ello para los casados con hijos y un empleo, bueno, probablemente yo ya me habría suicidado.

¿Qué tienen en común ciencia y punk?

Realmente es extraño cómo el punk tiende a atraer a los científicos…  Están Greg Graffin y Dexter Holland, por ejemplo, y yo mismo. Probablemente tengamos distintas visiones de los paralelismos entre ambos; sé que Greg los ha comparado refiriéndose al cuestionamiento de lo establecido inherente a la ciencia y el punk.

¿Y usted?

Yo veo los paralelismos en la creatividad y el aspecto del «hazlo tú mismo».

Pero toda la música es creativa. ¿Qué tiene de especial el punk?

Obviamente, toda música requiere creatividad, pero el punk en particular pone a la persona de la calle en el asiento del conductor, debido a esa naturaleza del «hazlo tú mismo». Esta capacidad del punk de crear algo de la nada, y de hacerlo sin una tonelada de infraestructura, me atrae del mismo modo que la ciencia, al menos el tipo de ciencia aguerrida que me interesa (en oposición a la Gran Ciencia). El otro aspecto que puedo apuntar es la naturaleza visceral del punk, la euforia total que provoca la música. Cuando descubro algo en el laboratorio, siento algo muy similar. El subidón que uno puede sentir con el punk se parece al del descubrimiento científico. Y aunque no sea exactamente lo mismo en ambos casos, la intensidad de esa sensación puede ser adictiva. En resumen, en cuanto a la naturaleza cuestionadora de ambos, y en su capacidad para emocionar e inspirar, pienso que la ciencia es un buen encaje para los punks.

B. V. Larson: «Los autores de ciencia ficción somos cheerleaders de la innovación»

Mañana, 21 de septiembre de 2016, H. G. Wells habría cumplido 150 años.

Si volviese hoy, no nos encontraría viajando en el tiempo, volviéndonos invisibles o recuperándonos de una invasión marciana, pero sí descubriría que aún seguimos pensando, debatiendo y escribiendo sobre todo esto.

Y es que tal vez el mayor legado de los grandes maestros de la ciencia ficción sea su capacidad de haber sembrado ideas que se perpetúan ejerciendo una poderosa influencia, no solo en los autores posteriores, sino también en el propio pensamiento científico.

B. V. Larson. Imagen de YouTube.

B. V. Larson. Imagen de YouTube.

Mañana tocará hablar de Wells, pero hoy quiero abrir boca con uno de sus muchos herederos. Recientemente tuve ocasión de hacer esta breve entrevista al californiano B. V. Larson. Conocido sobre todo por su serie Star Force, Larson es un autor inexplicablemente prolífico que ha forjado su carrera por la vía de la autopublicación. Una elección que le ha funcionado de maravilla, a juzgar por su presencia habitual en la lista de Amazon de los más vendidos en ciencia-ficción.

Larson posee un fenotipo que interesa especialmente a este blog: es uno de los numerosos autores de ciencia-ficción que han surgido desde dentro, desde el mundo de la ciencia y la tecnología. En su caso, es profesor en ciencias de la computación y autor de un exitoso libro de texto que continúa reeditándose.

Según me cuenta, en un momento de su vida trabajó como consultor de DARPA, la agencia de investigación del Departamento de Defensa de EEUU, en la Academia Militar de West Point. Con todo este equipaje, Larson es el tipo ideal a quien hacerle algunas preguntas sobre la relación entre la ciencia y su versión ficticia.

¿Cómo se relaciona la ciencia-ficción con el progreso científico y tecnológico?

No hay duda de que la ciencia-ficción influye en la innovación, pero también lo contrario. En la mayoría de los casos, es difícil decir cuál de las dos comienza el proceso. Los autores de ciencia-ficción son futurólogos que leen las nuevas tendencias en la industria y la ciencia, convirtiéndolas en historias de ficción con extrapolaciones. A su vez, los ingenieros leen estas historias y obtienen inspiración. En otras palabras, para entender el proceso yo pensaría en el papel del escritor creativo y el mundo real de la ingeniería, ambos como partes de un ciclo de innovación.

¿Hay algunas épocas en las que esta influencia haya sido mayor?

Yo diría que la ciencia-ficción fue muy importante desde 1900 hasta la década de 1970, pero menos de 1980 a 2010. Solo ahora está volviendo a ser lo que fue. ¿Por qué? Porque en los 30 años entre 1980 y 2010, la mayoría de la ciencia-ficción que se leía ni siquiera intentaba ser técnica, sino que se centraba en cuestiones sociales. Esto está cambiando ahora, y la ciencia-ficción está volviendo a ser lo que fue originalmente y a recapturar el corazón de los ingenieros.

Se suele hablar del papel de los autores como profetas tecnológicos. ¿Hasta qué punto no predicen, sino que marcan el camino a seguir?

Los ingenieros son quienes merecen la mayor parte del crédito. Los escritores de ciencia-ficción sirven para inspirar, para atraer a la gente joven a expandir el mundo a través de la tecnología, más que para hacer posible lo imposible. Somos más bien cheerleaders, oradores motivacionales, más que poderosos magos. Puede parecer que predecimos el futuro, pero lo que realmente hacemos es estudiarlo y pensar sobre él para hacer predicciones lógicas.

¿Y cuáles serían ahora esas predicciones? ¿Habrá algo de esos avances típicos del género y siempre pendientes, como coches voladores, naves espaciales más rápidas, reactores personales…?

Yo diría que la mayor parte de esas áreas ya han tenido su oportunidad. Piensa en un avión de pasajeros: si volvieras a 1975 y subieras a un avión, la experiencia, la velocidad de vuelo y todo lo demás sería prácticamente igual que hoy. Esto es normal en tecnología. Una vez que una tecnología nueva y poderosa se hace realidad, hay un período de unos 50 años de innovación muy rápida, y después se frena. Con los aviones, pasaron menos de 40 años desde el primer vuelo de los hermanos Wright hasta el ataque japonés a Pearl Harbor con bombarderos. Poco después teníamos aviones volando a todas partes. Y después nada. No ha habido cambios reales en 40 años.

Entonces, ¿qué áreas están ahora en ese período de innovación rápida?

Yo esperaría grandes cambios en el área de la biología. Pastillas que te permitan vivir 10 o 20 años más. Órganos impresos en 3D para reemplazar los dañados. O quizás nanites [nanorrobots] que practiquen nanocirugía dentro de nuestro cuerpo. Implantes cibernéticos, ese tipo de cosas. En eso se centra mi serie Lost Colonies.

Cuando comer cadáver humano estaba de moda en Europa

Hace unos días elaboré una lista de diez libros sobre ciencia para leer este verano (aún no publicada), algo que suelo hacer por estas fechas para cierto medio. Por desgracia y como bien saben los periodistas de cultura (me consta como autor), aunque tal vez no el público en general, el ritmo del trabajo periodístico y las limitaciones del cerebro humano imposibilitan el leer diez libros en un par de días, así que debemos conformarnos con un análisis de la estructura y un muestreo del contenido con eso que suele llamarse lectura en diagonal (en realidad tan absurdo como, por ejemplo, hablar de practicar sexo en diagonal; o hay sexo, o no hay sexo).

Entre los libros que reseñé hay uno que reposa justo a la izquierda de estas líneas que escribo y que espera la primera oportunidad para hincarle el diente. Lamentablemente, debo aclarar que (aún) no hay una traducción española. Y más lamentablemente aún, y por si alguien se lo pregunta, hay por ahí una mayoría de libros magníficos sobre temas relacionados con la ciencia que jamás se traducen ni se traducirán al español.

Por poner sólo un caso, aún me hace frotarme los ojos que The Making of the Atomic Bomb de Richard Rhodes, publicado en 1986 y ganador del premio Pulitzer en 1988 (ha habido tiempo suficiente), traducido a una docena de idiomas, no esté disponible en castellano (y si alguna vez lo estuvo, que no lo puedo saber con certeza, estaría descatalogado). Y que en cambio sí se traduzcan otras cosas, de las que no voy a poner ejemplos.

mummiescannibalsandvampiresPero voy al grano. El libro en cuestión es Mummies, Cannibals and Vampires: The History of Corpse Medicine from the Renaissance to the Victorians, o traducido, Momias, caníbales y vampiros: La historia de la medicina de cadáveres del Renacimiento a los victorianos. Su autor es Richard Sugg, profesor de literatura de la Universidad de Durham (Reino Unido). La novedad es que recientemente se ha publicado una segunda edición y, al tratarse de un trabajo de investigación, el autor ha incluido nuevos materiales. En Amazon España se puede comprar la nueva edición en versión Kindle, pero en papel solo está disponible la primera edición. Quien quiera la nueva versión en papel podrá encontrarla en Amazon UK.

Lo que Sugg cuenta en su libro es un capítulo de la historia de Europa desconocido para la mayoría: el uso de partes de cadáveres humanos, como huesos, piel, sesos, grasa, carne o sangre, para tratar múltiples enfermedades, desde la epilepsia a la gota, el cáncer, la peste o incluso la depresión. Resulta curioso, como conté recientemente en un reportaje, que los navegantes y exploradores europeos tildaran fácilmente de caníbales a las tribus indígenas con las que se encontraban en sus viajes por el mundo, cuando también ocurría precisamente lo contrario, que los nativos veían a aquellos extranjeros como antropófagos.

Pero si los europeos a veces estaban en lo cierto, no menos los indígenas: la medicina de cadáveres fue muy popular en Europa durante siglos, y no como algo marginal y secreto. Al contrario, no era un material fácilmente accesible, por lo que su uso era frecuente entre la nobleza, el clero y las clases acomodadas. Y aunque fue desapareciendo en el último par de siglos, se registran casos incluso a comienzos del siglo XX: según una de las fuentes de mi reportaje, en 1910 todavía una compañía farmacéutica alemana listaba en su catálogo de productos el polvo de momias expoliadas de Egipto, uno de los productos estrella de la medicina de cadáveres.

Ahí dejo la sugerencia; un libro muy recomendable para este verano. Pero intrigado por saber algo más sobre las investigaciones de Richard Sugg, me puse en contacto con él y le hice algunas preguntas sobre la historia del canibalismo. Esto es lo que el autor me contó. Lean, que merece la pena.

¿Cómo surgió la medicina de cadáveres?

La práctica médica en Europa parece haber surgido en la Edad Media. Pero a pesar de que suele repetirse que fue un fenómeno puramente medieval, se prolongó entre los ilustrados hasta mediados del siglo XVIII y probablemente alcanzó su esplendor a finales del XVII, precisamente cuando comenzaba la Revolución Científica. Todavía en 1770 había un impuesto sobre los cráneos importados de Irlanda para utilizarse como medicinas en Gran Bretaña y Alemania.

¿Cuándo empezó el canibalismo a convertirse en un tabú entre los seres humanos?

Por su propia naturaleza, sabemos muy poco de las tribus caníbales aisladas en períodos antiguos. Aunque el canibalismo de subsistencia es diferente, el hecho de que estos episodios se registraran nos indica que se estaba violando un tabú. Un ejemplo temprano es el del sitio de Samaria (724-722 a. C.), cuando supuestamente las madres se comieron a sus propios hijos. Más tarde, el cristiano Tertuliano (c. 150-222 d. C.) informaba irónicamente sobre las leyendas urbanas en torno a esta nueva secta, a cuyos miembros se les acusaba de asesinar a niños y beberse su sangre. También la siniestra reputación de los cristianos en aquella época implica que el canibalismo ya era un tabú.

Pero nunca ha llegado a desaparecer.

El canibalismo y beber sangre han sido recursos en todas las épocas en casos de hambrunas, naufragios y otras situaciones desesperadas. Hay muchos relatos de ello en travesías marítimas en el siglo XIX. El caso más notorio fue el de un grumete, Richard Parker, asesinado para comérselo después del naufragio del yate Mignonette en 1884. Un caso más reciente ocurrió después del fiasco de la Bahía de Cochinos en 1961, cuando un grupo de exiliados cubanos recurrió al canibalismo estando a la deriva en el mar durante 16 días. En 1998 The Times contaba el caso de Julio Pestonit, de 57 años, que relató al canal de noticias Fox en Nueva York cómo por entonces, con 20 años, fue uno de los 1.500 exiliados implicados en el intento frustrado de invasión de Cuba con el apoyo de la CIA. Tras eludir la captura, 22 exiliados se hicieron a la mar en un bote muy frágil sin comida ni agua, y pronto empezaron a morir. Pestonit dijo: «El grupo comió un cadáver con mucha reticencia. Yo comí algo del interior del cuerpo que me pasaron. Era una locura. Era como estar en el infierno».

¿Sigue siendo práctica habitual hoy en algunas culturas?

El canibalismo intrínseco o ritual en ciertas tribus puede ser una táctica para aterrorizar a los enemigos, o bien puede ser un rito funerario, lo cual es una práctica formal religiosa y consensuada. En el primer caso las víctimas suelen saber que serán comidas si los matan; entre los tupinamba de Brasil la víctima capturada era incorporada a la tribu de sus captores durante un año, se le daba una esposa, tenía un hijo, y trabajaba junto a los demás antes de ser asesinado y devorado ceremonialmente. En ambos casos la práctica puede incluir un deseo de reciclar o absorber el poder espiritual o el alma de la persona. Daniel Korn, Mark Radice y Charlie Hawes han mostrado que en el caso de los caníbales de Fiji esto era muy preciso: creían que el espíritu se aferraba al cadáver durante cuatro días. Comer el cuerpo aniquilaba el espíritu y le impedía ascender al mundo de los espíritus para servir de guía y dar fuerza al enemigo.

¿Diría que antiguamente los exploradores occidentales utilizaron todo esto como excusa para justificar la necesidad de colonización con el fin de «civilizar a los salvajes»?

Así es. En 1503, la reina Isabel de España dictó que sus compatriotas podían legítimamente esclavizar solo a los caníbales. Por supuesto, esto impulsó la invención de caníbales que no existían, aunque ciertamente los había. En 1510, el Papa Inocencio IV definió el canibalismo como un pecado que los soldados cristianos estaban obligados a castigar, no solo que tuvieran el derecho de hacerlo. Si creemos los relatos del testigo y jesuita español Bartolomé de las Casas (1474-1566), los invasores españoles terminaron haciendo a los habitantes nativos, caníbales o no, cosas mucho peores que esta.

Mucho más reciente es el caso relatado por la antropóloga Beth A. Conklin. Al parecer en la década de 1960 los wari’, una tribu de Brasil, todavía practicaban canibalismo funerario. Cuando los misioneros cristianos llegaron allí, llevaron consigo enfermedades contra las que los wari’ no estaban inmunizados, y les dieron medicinas solo con la condición de que abandonaran lo que para ellos era una práctica solemne y una parte importante de la psicología del duelo y la pérdida. En todos estos casos, exceptuando el canibalismo de subsistencia, la práctica de comer personas ha sido altamente cultural, y no una actividad puramente natural o bestialmente salvaje.

«La neurobiología vegetal es una revolución científica»

El filósofo Paco Calvo es una de las voces de mayor relevancia mundial en torno al pujante campo de la neurobiología vegetal, el área de estudio que en los últimos años ha revelado una forma propia de inteligencia en las plantas. Calvo dirige el Minimal Intelligence Lab de la Universidad de Murcia, que cuenta con el apoyo de la Fundación Séneca, la Agencia de Ciencia y Tecnología de la Región de Murcia. El filósofo es también miembro del comité científico asesor del Laboratorio Internacional de Neurobiología de Plantas, un grupo global de expertos con un enfoque multidisciplinar. Calvo acaba de publicar en la revista de filosofía Synthese un artículo titulado The philosophy of plant neurobiology: a manifesto.

Para dejar claro de qué ciencia estamos hablando, ¿cuál es la forma correcta de denominarla?

El filósofo Paco Calvo. Imagen cortesía de Alfonso Durán/AGM.

El filósofo Paco Calvo. Imagen cortesía de Alfonso Durán/AGM.

Hay respuestas para todos los gustos. Unos prefieren hablar de neurobiología vegetal, otros de señalización y conducta vegetal. Yo me quedo con “neurobiología vegetal”. En cualquier caso, sea cual sea la etiqueta que le pongamos, lo importante es entender que no podemos trabajar en un marco reduccionista o monodisciplinario. Las disciplinas integrantes son la biología vegetal celular y molecular, la fisiología vegetal, la bioquímica, la biología evolutiva y del desarrollo, la ecología vegetal, y, tal y como propongo en el artículo, la filosofía de la neurobiología vegetal.

Pero no todo el mundo parece dispuesto a aceptar esta denominación. ¿Por qué algunos se oponen?

Hay una agria disputa por esta cuestión en la comunidad científica. ¿Por qué neurobiología vegetal? Bueno, fíjate hasta qué punto retrata nuestros complejos antropocéntricos que cuando en los años 70 se hablaba de neuroid conduction [conducción neuroide] para hacer referencia a la propagación de eventos eléctricos en las membranas de células no nerviosas y no musculares en especies no animales nadie puso el grito en el cielo. De hecho, las similitudes van mucho más allá: en las plantas encontramos también señalización eléctrica mediada por potenciales de acción, como en la bomba de sodio-potasio animal, pero con otros iones implicados. La similitud es tal que el perfil electrofisiológico que consta de las tres fases de depolarización-repolarización-hiperpolarización de los potenciales animales es virtualmente idéntico. Pero fíjate qué curioso, que ni siquiera en una obra de referencia en fisiología vegetal como es el Plant physiology de Taiz & Zeiger se hace mención alguna a los potenciales de acción vegetales.

Hoy sabemos también que las plantas emplean neurotransmisores, igual que nuestras neuronas.

En plantas encontramos serotonina, dopamina, glutamato, GABA, etc. Coge el caso de la sincronización de los relojes circadianos en animales y plantas (¡las plantas, por supuesto, también tienen jet-lag!). En plantas encontramos el rol equivalente de sincronización llevada a cabo por neuronas en el núcleo supraquiasmático. Las rutas vasculares de señalización en tejidos vegetales permiten a las células del ápice orquestar la sincronización de los relojes de la planta. Podríamos seguir y seguir con las similitudes neuronales planta-animal, pero la cuestión de fondo es otra. Va al corazón del problema kuhneano de la distinción entre Ciencia Normal y períodos de revolución. Desde la ciencia paradigmática nos resistimos a ver lo que para la neurobiología vegetal es elemental.

Entonces, ¿podemos hablar de inteligencia vegetal?

No me cabe la menor duda. Ahora bien, me resisto a dar definiciones encorsetadas. Basta que propongas una definición para que te lluevan cien contraejemplos, siempre, claro, obviando contraejemplos análogos en inteligencia animal que servirían de reductio ad absurdum de la estrategia de ridiculización de la inteligencia vegetal. Para mí es mejor hablar de competencias particulares que caen bajo el paraguas de conductas observables inteligentes: patrones de coordinación sensoriomotora, formas básicas de aprendizaje y memorización, toma de decisiones, resolución de problemas.

¿No estaremos fabricando otro concepto de inteligencia a medida para las plantas?

Podemos pensar en la inteligencia como el seguimiento de reglas explícitas y la manipulación de estados representacionales por parte del sujeto en su cabeza, y claro, esto cuesta encajarlo con la inteligencia vegetal: ¿dónde está la “cabeza”? ¿En qué puede consistir el seguimiento de reglas? Pero hay otra forma de abordar la inteligencia tanto animal como vegetal: el resultado emergente del modo en que un organismo se acopla a un entorno que es significativo sólo en la medida en que el organismo interactúa con elementos en su medio. Aquí sí encajan bien tanto animales como plantas.

¿Qué aporta la filosofía en este campo? ¿Es tan importante poner nombres?

Es fundamental. De hecho yo ahora mismo me encuentro en el proceso de escribir un libro sobre cognición vegetal (Plant Cognition: the next revolution) y me niego a sacrificar la expresión “cognición vegetal”. Creo que nos hacemos un flaco favor barriendo debajo de la alfombra lo que nos incomoda. ¿No es mejor aplicarnos el mismo rasero a nosotros mismos? Pero no es una cuestión de cabezonerías: aquí no estamos haciendo como que queremos negociar para formar gobierno. Se trata más bien de entender que si no cogemos el toro por los cuernos y nos acercamos al estudio de la inteligencia de esta otra manera no seremos ni tan siquiera capaces de hacer conjeturas o de lanzar hipótesis empíricas y testarlas experimentalmente. Los presupuestos teóricos son fundamentales.

¿No será problemático reconocer a los vegetales como seres inteligentes? ¿Tendremos que empezar a pensar en la dignidad de las plantas, como dice la Constitución de Suiza?

Creo que esto es algo que debemos plantearnos sin extremismos y sobre todo sin prisas. Vivimos tiempos acelerados en los que el titular de ayer ya es prehistoria. Debemos recuperar un espíritu darwiniano y trabajar con muuuucha caaaalma. Necesitamos recabar muchos más datos, tomarnos muy en serio la replicabilidad y el control experimental, y no lanzar las campanas al vuelo con titulares efectistas o grandilocuentes, pero de corto recorrido. Es un trabajo de la sociedad en su conjunto, con el asesoramiento de la comunidad científica, por supuesto, pero de todos los agentes implicados en la generación de conocimiento.

El Punto G, pseudociencia aplicada al sexo

A falta de un término mejor, llamamos pseudociencia a todo cuerpo de conocimiento que se presenta como demostrado sin ciencia real que avale tal demostración de forma consensuada. Y digo a falta de un término mejor, no porque este no esté aceptado por la RAE, sino porque no parece de justicia meter en el mismo saco el psicoanálisis –pseudociencia según Karl Popper– y cancamusas como la creencia en que nuestro carácter viene predestinado por el calendario –astrología–, o en que el agua conserva el hueco cuando se le quita lo que contenía –homeopatía–.

Las pseudociencias suelen tener en común que muchos se forran vendiéndolas a otros, y no solo a pequeña escala: como ejemplo desconocido por ciertos sectores que denostan a las farmacéuticas, el gigante de la homeopatía Boiron, con unas ventas de más de 609 millones de euros en 2014, puede permitirse el lujo de pagar 12 millones de dólares para acallar una demanda colectiva en EE. UU. sobre la ineficacia de sus productos, en lugar de ir a juicio y tratar de demostrar que los demandantes se equivocan. Normalmente, además, las pseudociencias ofrecen una elevadísima ratio de rentabilidad de negocio frente a la inversión en adquirir los conocimientos necesarios para practicarlas o impartirlas: podemos convertirnos en terapeutas de Reiki con un cursillo de seis meses, y en solo 120 horas seremos consultores de Feng Shui. Y a hacer caja vendiendo pamplinas.

índiceCuando pensamos en pseudociencias, no es el sexo lo que suele venirnos a la mente. Y sin embargo, si nos atenemos a los criterios anteriores, también este campo puede estar invadido. Un claro ejemplo es el famoso Punto G; para muchos es una gallina de los huevos de oro, empezando por su descubridora, la enfermera Beverly Whipple: en lugar de demostrar su teoría en la literatura científica (nota: los estudios publicados por Whipple no demuestran la existencia de tal punto, sino que más bien la dan por hecha), la autora prefirió publicar un libro que ha vendido más de un millón de ejemplares y se ha traducido a 19 idiomas. Por no hablar de las revistas que venden ejemplares a mansalva instruyendo a las lectoras y a sus parejas sobre cómo bucear hasta esta presunta zona erógena.

Lee el resto de la entrada »

Feliz cumpleaños, Hawking, Wallace, Bowie, Elvis…

Cuando uno no puede presumir de mucho más, al menos le queda el consuelo de haber nacido el mismo día del año que algunos personajes con más merecimientos. El pasado 8 de enero, día en el que un servidor cumplió XLVII años –a ciertas edades, cuando los cumpleaños ya no se celebran sino que se conmemoran, se aconseja una numeración adaptada a la época–, fue también el aniversario de Elvis Presley, padre superior de la Orden del rock; David Bowie, el mayor genio individual de la música del último tercio del siglo XX; Alfred Russell Wallace, el Salieri de la evolución biológica; y Stephen Hawking, que ha cumplido los 73 contra todo pronóstico de la enfermedad que le aqueja, burlando a la muerte y a los periodistas que en alguna ocasión nos hemos visto obligados a preparar obituarios en previsión y que, afortunadamente, hasta hoy se quedaron en la nevera.

Hawking es un personaje tan popular que muchos darían por hecha su distinción con un premio Nobel; sin embargo, nunca lo ha recibido, y probablemente nunca lo hará. No hay injusticia aquí: el británico es un teórico, y los premios suecos no se conceden a las teorías, por brillantes que sean, sino a los descubrimientos. Peter Higgs, el del famoso bosón, elaboró su teoría en 1964, pero no pudo ser reconocido por la Academia Sueca hasta que la partícula propuesta por él fue finalmente detectada por el LHC en 2012. Recibió el Nobel sin más tardar al año siguiente, con la urgencia que aconsejaban sus 84 años, ya que el premio nunca se otorga a título póstumo.

Para que Hawking encontrara por fin la distinción máxima de la ciencia sería necesario, por ejemplo, que se demostrara la radiación que él teorizó y que emitirían los agujeros negros al morir. Pero por desgracia, faltan miles de millones de años para que esto ocurra, y ni siquiera la casi mítica inmortalidad de Hawking le permitirá vivir tanto. Einstein tuvo más suerte; al contrario de lo que muchos responderían a una pregunta del Trivial, al físico alemán no se le concedió el Nobel por su teoría de la relatividad, que en su época era prácticamente indemostrable. Por suerte, sí pudo verificarse experimentalmente su explicación del efecto fotoeléctrico, y esta fue la circunstancia que aprovechó el comité de los Nobel para distinguir su talento.

Con la celebración de su 73 cumpleaños, Hawking ha vivido además para ver el estreno del biopic que relata sus años jóvenes, La teoría del todo, que se presenta a los Óscar del próximo 22 de febrero con cinco nominaciones, incluidas las de mejor película y mejores actor y actriz protagonistas. Por lo que barruntan los entendidos, parece que hay otras candidaturas mejor posicionadas; pero lo más importante, lo que estimula en el público la curiosidad por la ciencia, ya está conseguido.

Para celebrar la figura de Stephen Hawking, hoy traigo aquí el vídeo de una entrevista grabada el pasado año, conducida por el actor y comediante británico John Oliver. Siento que no haya una traducción al castellano, pero espero que se comprenda bien; al menos las respuestas de Hawking están subtituladas. Es una delicia disfrutar de la ironía tan característica del humor inglés que despliegan ambos interlocutores en esta entrevista tan divertida como inusual.

«La ciencia encarna los valores del punk»

Un apunte metaperiodístico (periodismo sobre el periodismo), o del making of de esta profesión: cuando uno trata de comunicarse con una fuente fría –no creo que esto sea terminología estándar, sino mi manera de designar a alguien con quien no he tenido contacto anterior y que no me conoce– cuya única vía de acceso es el correo electrónico, ocurre con frecuencia que la respuesta de esa persona llega una vez que el artículo está entregado y ya no es posible incorporar sus ideas. En la mayoría de los casos, los comentarios de esa fuente se quedan para siempre en el tintero digital. Pero en ocasiones, el interés de esas opiniones merece que se compartan y se difundan, algo que afortunadamente puedo hacer a través de este blog.

En el caso que me ocupa, estuve trabajando en una historia sobre la relación entre punk y ciencia que se publicó ayer sábado en el Huffington Post. Recibí, ya fuera de plazo, las respuestas a mis preguntas de una de esas fuentes frías. Bill Cuevas es investigador del sector bioquímico, director musical de la emisora de radio de la Universidad de Stanford KZSU, y guitarrista de la banda de hardcore punk Conflict, de Tucson (Arizona). Cuevas presta voz a esa tendencia de quienes compartimos interés por la ciencia y el punk, algo que de ninguna manera podría denominarse colectivo, al menos por dos razones: primero, porque el punk nació empapado de la filosofía individualista del posmodernismo. Lo que no significa narcisismo ni egocentrismo, sino una visión menos alienadora de la colaboración social frente al asociacionismo uniformador que domina el siglo XXI (esta es solo mi humilde opinión). Segundo, porque probablemente existen tantas interpretaciones de la relación entre punk y ciencia como del propio punk, según las opiniones que he podido recoger de cara a la elaboración del reportaje del Huff.

La banda estadounidense de 'hardcore' Conflict, tocando en Tucson el 27 de febrero de 1984. Bill Cuevas aparece a la izquierda. Imagen de Ed Arnaud, reproducida con permiso de www.shavedneck.com.

La banda estadounidense de ‘hardcore’ Conflict, tocando en Tucson el 27 de febrero de 1984. Bill Cuevas aparece a la izquierda. Imagen de Ed Arnaud, reproducida con permiso de www.shavedneck.com.

El propio Cuevas subraya esta visión multicéntrica del punk: «El término punk ya era amplio incluso hace 32 años», dice. «A menudo se asociaba con el nihilismo y el anti-intelectualismo; por ejemplo, los Sex Pistols vomitando sobre los ejecutivos de las discográficas. Pero esos eran elementos de choque para cementar la implicación de los valores contrarios al establishment«. Se ha citado a menudo que uno de los posibles desencadenantes de que el punk estallara precisamente cuando estalló, dejando aparte que todos los movimientos sociales reaccionen contra los anteriores y al mismo tiempo sean consecuencia de evoluciones naturales, fue el hecho de que en la década de 1980 la política mundial estuviera dominada por el eje conservador que sostenían Margaret Thatcher en Reino Unido y Ronald Reagan en EE. UU. (aunque es justo decir que el nacimiento del punk británico en los 70 coincidió con un período de gobiernos laboristas). A este respecto, Cuevas señala: «Lo que llevó a muchos a ese género, a la escena, incluyéndome a mí, era el intelectualismo, la política y el activismo, las ideologías puras y la música intensa e implacable, que en realidad era musicalmente bastante técnica».

En el caso de Bill Cuevas, su experiencia nace del semillero estadounidense del punk, a partir de bandas como la Velvet Underground, New York Dolls, The Stooges, Television, Ramones, Talking Heads, Blondie, Minutemen, Descendents, Dead Kennedys o Bad Religion, por citar un espectro amplio de estilos. A menudo se subestima la contribución norteamericana en la explosión inicial del punk, pero de hecho allí nació el look que seduciría a millones de jóvenes: cuentan que Malcolm McLaren, el cerebro que inventó los Sex Pistols, diseñó la imagen de su banda copiando la de Richard Hell, por entonces en Television antes de fundar The Heartbreakers y luego The Voidoids.

En aquella escena norteamericana, el punk nació de un sustrato diferente al de su versión británica, más incubada en los barrios obreros. «El hardcore fue engendrado desde las clases medias, chicos de buenas familias (léase: disfuncionales), con padres que se aferraban al Sueño Americano nacido en los 50″, relata Cuevas. «Éramos como los beats y los hippies en su día, cuestionando el sentimiento de superioridad de los estadounidenses y el clima socio-político que Reagan y sus ideologías conservadoras habían vomitado por el mundo». Para Cuevas y su generación, como para sus coetáneos al otro lado del Atlántico, el punk era una esperanza de escape del No future: «Nosotros queríamos familias no disfuncionales y trabajos que amáramos y que armonizaran con nuestras ideologías. Si otros no nos veían así y pensaban que no había lugar para nosotros en la sociedad, fue porque el punk y el hardcore fueron incomprendidos por las masas».

Y fue en esa búsqueda de un trabajo ético y coherente con la filosofía punk como varios de ellos acabaron en la ciencia, como Dexter Holland (The Offspring), Greg Graffin (Bad Religion) o Milo Aukerman (Descendents). Sin embargo, Bill Cuevas advierte de que el camino no está libre de trampas. «Todo el que tenga una moral elevada e ideales éticos, los valores punks, debería tener cuidado a la hora de elegir la ciencia como carrera en 2014. Hoy la ciencia se ha difuminado por la ingeniería, y lo que un día motivó a la gente para descubrir e iluminar se ha utilizado para crear productos cuestionables en la medicina y la agricultura, bajo una falsa bandera de salvar a la humanidad». Ni siquiera la llamada investigación básica se libra de esto, según el investigador y guitarrista: «Incluso el escenario universitario de la ciencia pura sirve como incubadora para la industria y la propiedad intelectual. Elegir una carrera siempre ha sido difícil para los idealistas, pero hoy la ciencia presenta desafíos particulares».

Con todo, Cuevas reivindica la pureza que la ciencia y el punk tienen en común. «Estudiar ciencia, física, biología, observar el mundo a tu alrededor de forma global con espíritu de curiosidad y descubrimiento, eso es la encarnación de los valores del punk». Para él, como para otros de sus colegas que han elegido la ciencia como carrera, la intersección entre ambos mundos se centra en la actitud díscola y rebelde hacia los mayores y sus normas, algo que difícilmente encaja en profesiones de cuello blanco como el derecho, las finanzas o la política (o si me apuran, incluso el periodismo). «El punk trataba sobre ignorar las reglas y no crearlas de forma inadvertida, ignorar el juicio de otros», expone Cuevas, detallando qué significa esto: «En su día, la música ignoró las estructuras obligatorias de entonces, como la guitarra solista o el solo de batería, o los tempos y voces comprensibles, mientras aprendía, pero no copiaba, los ejemplos de otras grandes bandas». En el caso de la ciencia, prosigue Cuevas, «la buena ciencia depende de prestar atención al trabajo de otros sin aceptarlo ciegamente como un evangelio. Escribir tus propias conclusiones basadas en tu propia realidad, tus propias observaciones reales, siempre asumiendo que todo lo que se considera dogma es de hecho cuestionable. De eso es de lo que trata el punk».

«Hemos aprendido mucho del ébola»

Javier Limón con la ventana entreabierta. (GTRES)

Javier Limón con la ventana entreabierta. (GTRES)

Ahora que la recuperación de Teresa Romero parece al alcance de la mano, y aunque aún deberemos esperar el diagnóstico del nuevo contacto sospechoso, parece que el brote de ébola en España va a dar un paso hacia la siguiente fase, la hora de recapitular. «Con este caso del ébola estamos aprendiendo muchas cosas, estamos sacando conclusiones y acumulando mucha experiencia en poco tiempo», me cuenta Fernando Usera, jefe del Servicio de Protección Radiológica y Bioseguridad del Centro Nacional de Biotecnología (CNB-CSIC). «Yo creo que este brote va a finalizar satisfactoriamente, aunque puede que haya más contagios porque la fuente sigue activa en África», señala.

Usera es uno de los profesionales que participaron en la implantación de los protocolos de bioseguridad en el Hospital Carlos III cuando este comenzó a alojar pacientes infectados de ébola. Y ante todo, insiste en defender la actuación de los sanitarios: «Han aparecido informaciones poco contrastadas y de forma muy atropellada. Mi percepción es que allí trabajan profesionales muy valientes con mucha vocación y bajo enorme presión y estrés». Usera reconoce que ha sido necesario acelerar la curva de aprendizaje –«De cómo empezaron a trabajar a cómo están trabajando ahora no hay color»–, pero confía en que esta etapa está superada: «La formación va a mejorar; esta semana se empezará a dar formación al personal asistencial en la Escuela Nacional de Sanidad».

Un asunto diferente es el de las instalaciones. «Hay que mejorarlas y se están mejorando», apunta Usera. «Se han tenido que mejorar sobre la marcha, sacando cuatro nuevos boxes de aislamiento con esclusas más grandes». Pero es evidente que el Carlos III no fue diseñado para el fin que las circunstancias le han obligado a cumplir, lo que supone un hándicap, como notaron los expertos del Centro Europeo para la Prevención y el Control de Enfermedades (ECDC) que visitaron el hospital madrileño y concluyeron que la infraestructura no es adecuada para el tratamiento de pacientes con ébola.

Respecto a las instalaciones del hospital, en días pasados pudimos ver fotos que mostraban las ventanas abiertas a las que se asomaban los pacientes sin síntomas pero bajo vigilancia preventiva. Esta visión contrasta con la de las ventanas selladas del Texas Health Presbyterian Hospital de Texas, donde se está tratando a los enfermos de ébola en EE. UU. Explico por qué estas imágenes me han resultado chocantes. El CNB, donde hice mi tesis doctoral, fue en su momento –principios de la década de 1990– una instalación puntera en España en materia de bioseguridad. Ahora recuerdo con estupor retroactivo que en el viejo Centro de Investigaciones Biológicas (CIB) de la calle Velázquez, uno de los lugares donde trabajé antes de recalar en el CNB, debíamos cruzar el soportal exterior en plena calle Joaquín Costa llevando en la mano muestras de células marcadas con isótopos radiactivos o sustancias químicas más bien poco saludables, como acrilamida o beta-mercaptoetanol.

Frente a las viejas infraestructuras de investigación que debieron ir acomodándose a los tiempos, el CNB se diseñó desde el comienzo con instalaciones de Nivel de Contención Biológica 2 o NCB2, lo que se conoce popularmente como P2. Este centro dispone de superficies impermeables y no porosas, un sistema de ventilación que permite aplicar presiones negativas, e instalaciones de emergencia tales como baños de ojos, entre otras medidas. Los cuartos de cultivo, donde se trabaja con células animales vivas, tienen esclusas de acceso, campanas de filtración estéril y sistemas de vacío para residuos. Usera me aclara que en este momento el CNB dispone de siete laboratorios NCB2 además del invernadero y la zona de inoculados del animalario, y de un laboratorio de nivel 3 que ya cuenta con quince años de experiencia y en el que se trabaja con organismos peligrosos como coronavirus, SARS, MERS, tuberculosis y hepatitis C. Un detalle importante es que todas las ventanas del CNB están selladas; no pueden abrirse, lo que explica mi extrañeza al ver las imágenes de las ventanas abiertas del Carlos III.

Sin embargo, Usera me aclara que esta imagen resulta chocante para mi mentalidad de antiguo investigador, pero que en realidad no tiene nada de raro. «Para los pacientes asintomáticos no hace falta que haya estanqueidad», precisa Usera. «Otro caso es el de Teresa Romero, que tiene la ventana bloqueada, eso te lo aseguro; independientemente del hecho de que la ventana pueda abrirse y no debería poderse». Pero ¿dónde queda entonces el nivel de contención? «Hay mucha confusión con esto», señala Usera. «Los niveles de contención del 1 al 4 se crearon en EE. UU. a partir de la Segunda Guerra Mundial para los laboratorios industriales y de investigación, pero no se aplican a los hospitales; en estos se hace una evaluación de riesgos y se implantan medidas de contención biológica siguiendo la legislación, pero no se definen niveles porque no se podría tratar a los pacientes: por ejemplo, si hay que intubar, esto rompería la norma del nivel 4, y en el caso de un enfermo el objetivo es curarle como sea». «No tiene sentido lo que se ha dicho de que España no tiene un hospital de nivel 4, es absurdo», añade el experto.

Pese a todo, no cabe duda de que la crisis del ébola nos ha sorprendido sin la preparación suficiente para afrontar epidemias de otras enfermedades con mayor facilidad de contagio, como el SARS, la tuberculosis o las formas más virulentas de gripe, o incluso posibles ataques bioterroristas. Por tanto, queda comprobar si la recapitulación de todo lo ocurrido resultará en reemplazar improvisación por previsión. Usera aún no se atreve a apostar si el Carlos III se confirmará como hospital de referencia para dolencias como el ébola. «Imagino que sí, pero todavía no se ha decidido», dice. «Con una reforma de obra bastaría para adecuarlo».

Por el momento, los expertos van a llevar las conclusiones aprendidas al 2º Congreso Nacional de la Asociación Española de Bioseguridad (AEBioS), que se celebrará a finales de este mes en Barcelona. Cuando se programó esta cita, seguramente nadie podía imaginar que la bioseguridad estaría más de actualidad que nunca en España debido a la irrupción de un visitante indeseable. «Seguro que se tratará el tema del ébola, pero la postura oficial es que está demasiado fresco porque aún no ha terminado; es conveniente reposar un poco todo lo que ha ocurrido para verlo con una perspectiva más global», reflexiona Usera, quien se muestra partidario de organizar dentro de unos meses un ciclo de jornadas para estudiar las lecciones aprendidas.