Entradas etiquetadas como ‘ciencia’

¿Matarías a una persona para salvar a cinco? Ética e intuiciones morales

AutorPor Fernando Aguiar (CSIC)*

Un tranvía corre sin frenos hacia cinco trabajadores que, ajenos a la desgracia que les espera, arreglan unas traviesas. Si nadie lo remedia morirán arrollados. Por fortuna, alguien lo puede remediar, usted, que presencia la escena: basta con que cambie las agujas para desviar el vagón hacía una vía muerta en la que solo hay un trabajador. Es cierto que ese trabajador morirá, pero se salvarán los otros cinco. ¿Cambiaría las agujas sabiendo cuál es el resultado de su decisión?

Si considera que salvar a cinco personas es la mejor opción en este caso, coincidirá usted con la mayoría de la gente: en efecto, el 90% dice que cambiaría las agujas. Sin embargo, imagine que se encuentra ante una situación similar a la anterior, pero ahora en lugar de cambiar las agujas tiene que empujar a una persona muy gorda para que con su gran volumen detenga el tranvía. Esa persona también morirá sin remedio, pero las otras cinco se salvarán. ¿La empujaría? ¿Qué le dictan sus intuiciones morales en este caso?

John Holbo 2

Ilustración: John Holbo

Aunque de nuevo se trata de salvar a cinco personas a costa de una, en esta ocasión solo un 25% de la gente asegura que daría el empujón fatal: no es lo mismo matar que dejar morir; eso es lo que, al parecer, nos dicen nuestras intuiciones morales. ¿Y si el que está en la vía muerta es su padre? ¿Y si es su hijo? ¿Los sacrificaría para salvar a cinco personas? La intuición nos dicta que no tenemos por qué cambiar las agujas. ¿Y si es un niño desconocido? En tal caso, las intuiciones morales de hombres y mujeres son distintas, pues ellos dicen estar dispuestos en mayor medida que ellas a desviar el tranvía.

Las intuiciones morales –la percepción inmediata de que una acción es moralmente correcta o incorrecta– son importantes para entender muchas de nuestras decisiones, convicciones, dilemas y contradicciones. Esas intuiciones a veces son claras y la reflexión las confirma; otras, sin embargo, son confusas, poco fiables y están sesgadas por todo tipo de prejuicios. En cualquier caso, es preciso conocerlas bien, tanto su naturaleza como sus fundamentos, dado que nos sirven de guía para la acción moral. Esa es, precisamente, la tarea de una nueva rama de la filosofía denominada ‘ética experimental’. Ahora bien, ¿‘ética’ y ‘experimental’ no son términos contrapuestos? ¿Cómo puede ser experimental una disciplina que trata sobre el deber ser, sobre cómo debemos comportarnos?

La filosofía se ha considerado ajena a la producción de datos, lo que no significa que haya carecido de interés por ellos y por las ciencias que los generan. De hecho, durante los siglos XIX y XX (cuando la separación entre ciencia y filosofía ya es completa) buena parte de la mejor filosofía se apoyó en datos científicos de todo tipo, sociales y naturales, para reforzar o ilustrar sus teorías. Sin embargo, no era su misión producirlos; antes al contrario, cómodamente sentado en su butacón, el filósofo especulaba sobre los fundamentos de la realidad natural, social o política y sobre la naturaleza de la moral sin mancharse las manos con cuestiones empíricas. Con el surgimiento de la ética experimental, apenas hace diez años, ese panorama cambió por completo: como otras ramas de la filosofía, la ética se ha propuesto ahora generar sus propios datos.

Tranvía

Ilustración: John Holbo

¿Pero qué necesidad tiene la ética de producir datos? ¿Qué busca? Busca intuiciones morales como las del ejemplo del tranvía u otras similares sobre egoísmo, altruismo, virtud, tolerancia, honradez, corrupción, crueldad, generosidad, etc. ¿Devolvería usted una cartera llena de dinero? ¿Llegaría tarde a una importante cita por ayudar a alguien? ¿Renunciaría a un soborno millonario? La ética experimental estudia las intuiciones morales de la gente para conocer su naturaleza y sus límites, propiciando al mismo tiempo que las teorías éticas sean más realistas. Supongamos que ningún ser humano estuviera dispuesto a mover las agujas del tranvía para salvar a cinco personas frente a una, ¿qué sentido tendría que una teoría nos dijera que el cambio de agujas es lo correcto? Parafraseando a Kant, podemos afirmar entonces que las teorías éticas sin intuiciones son ciegas, pues resultan ajenas a la psicología moral humana (teorías para dioses o demonios); pero las intuiciones morales sin teorías son vacías, pues nos guían de forma contradictoria en demasiadas ocasiones.

Así pues, lejos del confortable butacón, filósofos y filósofas llevan a cabo experimentos hipotéticos o reales similares a los de la psicología o la economía. En los primeros, los participantes deben expresar un juicio moral sobre una situación hipotética dada (el problema del tranvía, por ejemplo); en los reales, tienen que tomar una decisión moral, ya sea de forma individual o como producto de la cooperación. Imagínese, por ejemplo, que en el laboratorio de ética le entregan 20 monedas de un euro y tiene que decidir si darle a otra persona, elegida al azar, una moneda, o dos, o tres, o cuatro, o cinco… o todas, o bien puede no darle ninguna; esto es, se queda usted con los 20 euros. A su vez, la persona en cuestión tiene en su mano aceptar la oferta –por ejemplo, usted le ofrece 4 euros– o rechazarla. Ahora bien, si la rechaza ambos se quedan sin nada. ¿Usted cuánto ofrecería? ¿Cuál es su intuición moral en este caso? ¿Cuál sería la oferta más justa?

Experimentos hipotéticos o reales ponen a las personas, pues, frente a su concepción del bien y lo correcto; y las teorías éticas se benefician de ese conocimiento. De vuelta al butacón se puede especular de nuevo sobre principios y consecuencias morales apoyándose en bases más firmes. La ética experimental consigue así elaborar teorías normativas y empíricas a la vez; logra, en otras palabras, ser filosofía y ciencia al mismo tiempo. Démosle la bienvenida.

 

* Fernando Aguiar es investigador del CSIC en el Instituto de Estudios Avanzados (IESA).

El origen del universo: las tres grandes evidencias del Big Bang

AutorPor Alberto Fernández Soto (CSIC)*

Todo cambia: nosotros, otros seres vivos, la geografía de nuestro planeta, etc. El universo también evoluciona, aunque habitualmente lo hace en escalas de tiempo mucho mayores. Existen procesos, como la explosión de una supernova, que podemos observar en tiempo real. Pero además el cosmos cambia como un todo, y hace aproximadamente 13.800 millones de años conoció la mayor transformación que podemos imaginar: surgió de repente, de modo que la materia, la energía, e incluso el espacio y el tiempo aparecieron espontáneamente a partir de la nada en lo que hoy llamamos la ‘Gran Explosión.

Esta es una idea difícil de digerir, y como tal requiere evidencias muy sólidas que la apoyen. Tres son las grandes pruebas en que se basa:

  1. El universo se expande. Edwin Hubble observó hacia 1925 que las galaxias se alejan unas de otras a velocidades proporcionales a la distancia entre ellas. Georges Lemâitre había probado anteriormente que un universo en expansión representaba una solución válida de las ecuaciones de Einstein, aunque éste se había mostrado reticente («sus ecuaciones son correctas, pero su física es abominable«, cuentan que le dijo). Si el cosmos se encuentra en expansión es fácil imaginar que en el pasado ocupaba un volumen mucho menor y, en el límite, un volumen nulo. Tal instante, en el que la temperatura y la densidad serían extremadamente altas, es lo que llamamos ‘Gran Explosión’ o ‘Big Bang’.
  1. La composición del universo es tres cuartos de hidrógeno y un cuarto de helio, los dos elementos más ligeros. Todo el resto de la tabla periódica, incluyendo los elementos que componen la mayor parte de nuestros cuerpos y nuestro planeta (silicio, aluminio, níquel, hierro, carbono, oxígeno, fósforo, nitrógeno, azufre…), representa aproximadamente el 2% de la masa total. Cuando hacia 1950 algunos físicos (entre ellos Fred Hoyle, William Fowler y el matrimonio formado por Geoff y Margaret Burbidge) entendieron por primera vez las ecuaciones que regían las reacciones nucleares en las estrellas, probaron que todos esos átomos ‘pesados’ habían nacido en los núcleos estelares. George Gamow, Ralph Alpher y Robert Herman aplicaron las mismas ecuaciones a la ‘sopa’ de partículas elementales que debería haber existido en los primeros instantes del universo, teniendo en cuenta su rápido proceso de enfriamiento. Dedujeron que, aproximadamente tres minutos después del instante inicial, la temperatura habría bajado lo suficiente como para frenar cualquier reacción nuclear, dejando un universo con las cantidades observadas de hidrógeno y helio.

    Arno Penzias y Robert Wilson en la antena de Holmdel (Bell Labs, Nueva Jersey) con la que descubrieron la radiación de fondo de microondas. / NASA.

    Arno Penzias y Robert Wilson en la antena de Holmdel (Bell Labs, Nueva Jersey) con la que descubrieron la radiación de fondo de microondas. / NASA.

  1. Si el universo nació en ese estado indescriptiblemente caliente y se ha ido enfriando, ¿cuál será su temperatura actual? Eso se preguntaban Robert Dicke, Jim Peebles, Peter Roll y David Wilkinson en Princeton a mediados de los sesenta. Antes de completar su antena para intentar medir esa temperatura, supieron por un colega que dos astrónomos de los cercanos laboratorios Bell, que utilizaban una gran antena de comunicaciones para medir la emisión de la Vía Láctea, detectaban un ruido de fondo que no conseguían eliminar. Arno Penzias y Robert Wilson habían descubierto, sin saberlo, la radiación de microondas causada por la temperatura de fondo2,7 grados Kelvin (aproximadamente menos 270 grados)– que constituye el eco actual de la Gran Explosión.

Otros resultados recientes, como la medida de la tasa de expansión del universo a partir de observaciones de supernovas (1998) o la detección de escalas ‘fósiles’ características en el agrupamiento de galaxias (2005), han permitido estimar con precisión los parámetros del modelo. Así, la edad del universo es 13.800 millones de años (con una precisión menor del 1%).

La evolución de la estructura del universo según una simulación por ordenador, en escalas de tiempo que cubren desde hace 12.800 millones de años (línea superior) al presente (línea inferior), y escalas de tamaño que van desde 325 (columna izquierda) a 50 millones de años-luz (columna derecha). / Millennium-II Simulation: M. Boylan-Kolchin et al. (Max Planck Institute for Astrophysics), Volker Springel (Heidelberg Institute for Theoretical Studies).

La evolución de la estructura del universo según una simulación por ordenador, en escalas de tiempo que cubren desde hace 12.800 millones de años (línea superior) al presente (línea inferior), y escalas de tamaño que van desde 325 (columna izquierda) a 50 millones de años-luz (columna derecha). / Millennium-II Simulation: M. Boylan-Kolchin et al. (Max Planck Institute for Astrophysics), Volker Springel (Heidelberg Institute for Theoretical Studies).

Eso sí, menos de un 5% del contenido del cosmos es la materia que estamos acostumbrados a ver. Existe otro tipo de materia del que hay una cantidad cuatro veces mayor que de materia normal –sólo notamos su efecto gravitatorio, y la llamamos ‘materia oscura–. Además una nueva componente, que llamamos ‘energía oscura a falta de un nombre mejor, representa casi un 75% del contenido del cosmos. ¿Su propiedad principal? Que genera una presión que se opone a la gravedad haciendo que el universo se encuentre en un proceso de expansión desbocada.

Hace 10.000 millones de años se formó nuestra galaxia, y nuestro sistema solar apareció solamente unos 5.000 millones de años atrás. En uno de sus planetas aparecieron hace casi 4.000 millones de años los primeros seres vivos: entes capaces de almacenar información genética, reproducirse y evolucionar. Tuvieron que pasar casi todos esos años para que, prácticamente ayer, apareciera una especie de primate capaz de observar el mundo a su alrededor, hacerse preguntas, y almacenar información de un nuevo modo: el instinto, el habla, la escritura, la cultura, la ciencia…

La cosmología observacional ha conseguido hoy responder a muchas preguntas que hace poco más de un siglo eran absolutamente inatacables para la física. No obstante un gran número de nuevos problemas se han abierto: ¿Qué es la materia oscura? ¿Cuál es la naturaleza de la energía oscura y cómo provoca la expansión? ¿Qué produjo la asimetría inicial entre materia y antimateria? ¿Tuvo el universo temprano una fase inflacionaria de crecimiento acelerado? Multitud de programas observacionales y esfuerzos teóricos y computacionales se dedican a intentar resolver estas cuestiones. Esperamos que al menos algunas de ellas tengan respuesta en los próximos años.

 

* Alberto Fernández Soto investiga en el Instituto de Física de Cantabria (CSIC-UC) y en la Unidad Asociada Observatori Astronòmic (UV-IFCA). Junto con Carlos Briones y José María Bermúdez de Castro, es autor de Orígenes: El universo, la vida, los humanos (Crítica).

El experimento físico más hermoso de todos los tiempos: la doble rendija

Por Mar Gulis (CSIC)

En 2003 la revista Physics World preguntó a sus lectores cuál era en su opinión el experimento más bello de la historia de la física. Ganó el célebre experimento de la doble rendija, una prueba diseñada en 1801 para probar la naturaleza ondulatoria de la luz que no ha dejado de repetirse, en diversos formatos y con distintos objetivos, hasta la actualidad.

Láser difractado usando rendija doble. Foto tomada en el laboratorio de óptica de la facultad de ciencias de la UNAM. / Lienzocian (CC-BY-SA)

Láser difractado usando rendija doble. Foto tomada en el laboratorio de óptica de la facultad de ciencias de la UNAM. / Lienzocian (CC-BY-SA)

La fascinación que sigue produciendo este experimento tiene que ver con que, como dijo el físico Richard Feynmann (1918-1988), contiene en sí mismo el corazón y todo el misterio de la física cuántica, la disciplina que estudia el comportamiento de la materia a escala microscópica.

En el mundo cuántico –el de las partículas subatómicas como los electrones– las ‘cosas’ actúan de una forma muy distinta a como sucede en la escala macroscópica, en la que nos movemos los seres humanos. El experimento de la doble rendija pone de manifiesto dos características desconcertantes de ese mundo. La primera es que, a escala micro, los objetos físicos tienen una naturaleza dual: según las circunstancias, pueden comportarse como un conjunto de partículas o como una onda. Y la segunda consiste en que el hecho de observarlos hace que actúen de una manera o de otra.

Para entender algo más del mundo cuántico, vamos a presentar una formulación ideal del experimento prescindiendo de los detalles técnicos.

Situémonos primero en la escala macro, en nuestro mundo. Vamos a lanzar, una a una y en distintas direcciones, miles de canicas contra una placa atravesada por dos finas rendijas verticales. En otra placa más alejada vamos a recoger el impacto de las canicas. ¿Qué ‘dibujo’ habrá producido este impacto?

La respuesta es: dos franjas verticales, correspondientes a las canicas que han logrado atravesar la placa anterior a través de las ranuras.

Imprimir

Ahora, introduzcamos todos los elementos del experimento en una piscina llena de agua. Desde el mismo punto desde el que hemos lanzado las canicas comenzaremos a generar olas. Una vez que las olas atraviesen las dos ranuras y lleguen a la última placa, ¿dónde impactarán con más intensidad? ¿Qué ‘dibujo’ provocará ese impacto?

La respuesta es: una serie de franjas verticales de diferente intensidad que los físicos llaman “patrón de interferencia”. Este dibujo se produce porque el oleaje inicial, como cualquier onda, se difracta al atravesar las ranuras, dando lugar a dos oleajes que interfieren entre sí. En algunos puntos las olas se potencian y en otros se anulan, lo que provoca un impacto con desigual intensidad sobre la última placa.

Ondas

Pues bien, descendamos ahora al mundo cuántico y, en lugar de canicas, lancemos electrones uno a uno a través de la doble ranura. ¿Qué se ‘dibujará’ en la segunda placa? Con la lógica que utilizamos en el mundo macro, lo esperable es que el electrón, que es una partícula, impacte igual que una canica y dibuje dos franjas verticales.

Sin embargo, el resultado que obtenemos es… ¡un “patrón de interferencia”!

 

Dualidad onda-partícula

¿Cómo se entiende todo esto? En el libro Mecánica cuántica (CSIC-Catarata), el investigador del CSIC Salvador Miret ofrece algunas explicaciones.

La interpretación estándar nos dice que el electrón se lanza y se recoge como una partícula, pero se propaga como una onda. Es decir, que durante su recorrido el electrón está distribuido o superpuesto en toda el área que ocupa su onda, por lo que atraviesa las dos rendijas a la vez e interfiere consigo mismo hasta impactar contra la segunda placa. En ese momento, como consecuencia del impacto, el electrón vuelve adoptar la naturaleza de partícula –en términos más precisos diríamos que colapsa su función de onda– situándose en uno de los múltiples puntos atravesados por la onda. Al comenzar el experimento los electrones se distribuirán por la segunda placa de una forma aparentemente aleatoria, pero al incrementar el número de impactos veremos cómo va formándose el “patrón de interferencia”. Es decir, que la posibilidad de impactar en uno u otro punto está determinada por la onda. En este vídeo puede verse cómo se reproduce un patrón de interferencia en tiempo real, aunque no con electrones sino con moléculas de ftalocinanina:

Interpretaciones de la mecánica cuántica más recientes, como la propuesta por David Bohm (1917-1992), nos dirían que el electrón sigue una trayectoria (no se superpone en varios sitios a la vez) pero que esta está guiada por una onda. En este modelo las ondas son como corrientes de ríos que ‘transportan’ a las partículas: las primeras trazan los numerosos caminos que pueden seguir las segundas pero cada partícula recorre solo uno de ellos. En cualquier caso, esta interpretación no cuestiona la naturaleza dual del mundo cuántico: no podemos considerar las partículas como independientes de su onda.

 

La importancia del observador

Sin embargo, esta es solo una de las aportaciones de nuestro experimento. ¿Qué pasa cuando colocamos un detector para averiguar por qué rendija pasa nuestro electrón?

Pues que el “patrón de interferencia” desaparece y los electrones impactan en la segunda placa como si fuesen canicas. Es decir, que al tratar de observar el sistema, hemos actuado sobre él, obligando a nuestro electrón a comportarse como una partícula. Los fotones que hemos enviado para detectarlo han interaccionado con él y alterado el resultado del experimento.

Evidencias como estas llevaron a Niels Bohr (1885-1962), uno de los ‘padres’ de la mecánica cuántica, a decir, en los años 20 del siglo pasado, que ya no somos meramente observadores de lo que medimos sino también actores. De repente, una ciencia dura como la física comenzaba a cuestionar el paradigma de la objetividad: ¿podemos conocer la realidad sin interferir en ella y sin que ella interfiera en nosotros?

La ortodoxia cuántica, de la que Bohr fue uno de los principales paladines, plantea que la presencia del observador introduce una incertidumbre insoslayable. De acuerdo con Werner Heisenberg (1901-1976) y su principio de incertidumbre, es imposible conocer al mismo tiempo todas las propiedades de nuestra partícula porque, al observar una, estamos alterando el resto. Al querer conocer la posición exacta de un electrón, por ejemplo, su velocidad queda muy indeterminada. Por eso, desde este punto de vista no podemos ir más allá de calcular las potencialidades que nos ofrece su denominada función de onda.

Sin embargo, en los últimos años, la física no ha dejado de buscar formas de medición débiles, que no alteren el sistema observado, y de proponer modelos abiertos, que integran en su formulación al observador. El objetivo: precisar qué hacen las partículas cuando no las observamos… Si realmente estas propuestas llegan a buen puerto es posible que, como afirma Miret, vivamos una auténtica revolución de la mecánica cuántica. De todas formas, parece difícil que cualquiera de los nuevos planteamientos pueda dejar completamente de lado al observador, aunque solo sea para tratar de neutralizar sus efectos sobre el mundo observado.

Envases activos que cuidan los alimentos y el medioambiente

Por Mar Gulis (CSIC)

¿Cuántas veces has abierto un paquete de cacahuetes y estaban rancios? ¿Cuántas veces te has encontrado el pan de molde enmohecido cuando ibas a prepararte un sándwich? Ambos productos tienen en común que se comercializan envasados en plástico, un material que permite el paso de sustancias de bajo peso molecular, como el oxígeno o el vapor de agua, responsables de acelerar procesos oxidativos (el enranciamiento de grasas en el caso de frutos secos) y de crecimiento de microorganismos alterantes (como los mohos en el pan).

Para no tener estas sorpresas desagradables cuando el hambre aprieta, la ciencia y tecnología de los alimentos aportan una solución: los envases activos. En lugar de los recipientes tradicionales que solo sirven de contenedor y de barrera ante agentes externos, “estos envases además ceden o absorben sustancias, modificando la composición de gases del interior y estableciendo así una atmósfera protectora que mantiene los alimentos en buen estado durante más tiempo”, explica la investigadora del Instituto de Agroquímica y Tecnología de Alimentos (IATA) del CSIC Amparo López.

Ensalada empaquetada en un envase activo/Wikipedia

Ensalada empaquetada en un envase activo/Wikipedia

Una visita al supermercado es suficiente para encontrar este tipo de recipientes cada vez más utilizados en la industria alimentaria. Por ejemplo, la carne y algunas marcas de pasta fresca se venden en envases absorbentes de oxígeno para evitar que cambien de color y sabor. Si nos trasladamos a la sección de frutería, encontraremos envases capaces de ‘atrapar’ etileno, el gas que producen frutas y verduras en el proceso de maduración. Además, todos los vegetales no ‘respiran’ al mismo ritmo: algunos van rápido como el brócoli, y otros lentamente como las patatas. Por eso también estos embalajes tienen distintas concentraciones de las sustancias que regulan la presencia de etileno. Todo para que nos comamos los melocotones o judías verdes del interior en su punto.

Las gotitas que a veces encontramos pegadas a los envases de frutas y verduras se eliminan con materiales desecantes como gel de sílice o arcillas naturales, evitando así el crecimiento de mohos, levaduras y bacterias.

En algunos casos los reactivos o compuestos químicos implicados en la absorción de gases o agua se incluyen en una etiqueta situada en la superficie interna del paquete. En otros, se introducen dentro del envase en pequeñas bolsas fabricadas con materiales permeables. Otra posibilidad es incorporarlos formando parte del material de embalaje.

A pesar de sus ventajas, los envases activos siguen arrastrando los mismos inconvenientes que los convencionales, ya que están fabricados con polímeros sintéticos no biodegradables.  De ahí que se esté investigando con biopolímeros, polímeros derivados de recursos naturales renovables o biodegradables, como alternativa a los plásticos procedentes del petróleo.

En el IATA las investigadoras Lorena Castro y María José Fabra trabajan en el desarrollo de envases activos biodegradables con antimicrobianos naturales. Estos nuevos envases fabricados con biopolímeros incorporan aceites esenciales (romero, orégano, canela) o nanopartículas metálicas que se pueden utilizar en envases alimentarios, como las de plata y zinc. Ambos tipos de sustancias naturales tienen un efecto antimicrobiano, con lo cual se consigue conservar los alimentos respetando el medioambiente. Además, la estructura de los biopolímeros favorece que el compuesto activo antimicrobiano sea liberado de manera gradual dentro del envase. Así se mantiene una concentración adecuada en la superficie del alimento, donde generalmente comienzan a aparecer los microorganismos alterantes, y se alarga su vida útil.

“Trabajamos con alimentos que se consumen en fresco, como la fruta y la verdura cortada. El objetivo es evitar añadir conservantes para que permanezcan en buen estado, y que el propio envase cumpla esa función preservadora”, comentan las científicas del CSIC. Estos envases aún están en fase de ensayo. El siguiente paso es obtener la tecnología para hacer un desarrollo comercial.

Peces macho que se embarazan

Por Miquel Planas Oliver (CSIC) *

Este pez macho está cuidando a su prole. El entregado padre es un ejemplar de bocón (Opistoganathus sp.) y permanecerá así, con la boca llena de huevos y sin ingerir alimento, hasta que estos eclosionen, un mes después de introducirlos en su cavidad bucal.

Crianza compartida o conciliación pueden parecer términos fuera de contexto si hablamos de peces, pero el mundo animal nos ofrece casos excepcionales y sorprendentes, también bajo el agua.  En la reproducción de los peces, que en su mayoría es ovípara, las hembras suelen aportar tanto los cuidados como los nutrientes a los huevos y embriones, dejando al macho el papel de mero fecundador. Sin embargo, existen estrategias reproductivas en las que ellos desempeñan un rol primordial, especialmente en lo referente al cuidado de la descendencia. Para ello, la evolución ha dotado a los machos de algunas especies de comportamientos e incluso de estructuras corporales especiales que permiten niveles más o menos complejos de protección.

Junto al bocón que aparece en el vídeo, otro de los casos más curiosos es el pez cardenal (Pterapogon kauderni) de las Islas Banggai (Indonesia), uno de los mejores papás de todo el mundo animal. El pez cardenal no solo mantiene en su boca los huevos hasta que eclosionan como hace el bocón, sino que además las crías permanecen allí hasta que tienen un desarrollo suficiente para afrontar una vida llena de peligros en el ancho mar.

El cuidado bucal de los huevos tiene sus ventajas, especialmente para asegurar la descendencia en especies que producen pocos huevos (unas decenas o centenares frente a los miles de una puesta de otros peces), aunque a veces es inevitable que el padre trague algún huevo sin querer.

Macho Hippocampus guttulatus

Macho de caballito de mar recién apareado. En la imagen aparecen algunos huevos que no entraron en el saco/Miquel Planas

Pero sin duda los reyes acuáticos de la protección son los caballitos de mar (Hippocampus sp.). Los machos presentan un saco incubador al final del abdomen en el que las hembras depositan los huevos en el momento del apareamiento. Al entrar en el saco, los machos los fertilizan con su esperma y se inicia el desarrollo embrionario. Durante todo el tiempo en que los embriones se encuentran en el interior del saco, de dos a cuatro semanas, el macho protege físicamente a la prole y aporta un ambiente fluido adecuado, oxígeno, nutrientes y otros componentes bioquímicos. Al final de ese período las crías de caballito de mar son expulsadas al exterior mediante una serie de convulsiones, como si de un parto se tratara.

Los parientes del caballito de mar, como algunos peces pipa o los dragones de mar (pertenecientes al grupo de los  singnátidos), son menos sofisticados, pero también en estas especies el macho ejerce como cuidador. Las hembras depositan los huevos en la parte inferior del abdomen o de la cola del macho, quedando fijados mediante un fluido denso hasta que emergen los futuros pececitos.

En el caso del pez espinoso (Gasterosteus aculeatus), presente en nuestros ríos, y también del pez payaso (Amphiprion ocellaris), los machos construyen un nido donde la hembra deposita los huevos. Mientras nacen los alevines, ellos agitarán sus aletas para dar oxígeno a los huevos, alejarán a posibles depredadores y limpiarán el nido.

Y mientras todo esto sucede, ¿dónde están las madres? El cuidado paternal permite a la hembra disponer de tiempo para producir otro lote de huevos, que estará a punto cuando el macho quede libre de sus quehaceres. Todo un ejemplo de distribución del trabajo en la crianza.

*Miquel Planas Oliver es investigador del Instituto de Investigaciones Marinas (CSIC).

La mutación de la Luna

FJ BallesterosM. VillarPor Montserrat Villar (CSIC) y Fernando J. Ballesteros (UV)*

Ya no me atrevo a macular su pura
aparición con una imagen vana,
la veo indescifrable y cotidiana
y más allá de mi literatura.

(Fragmento del poema “La Luna” de Jorge Luis Borges, 1899-1986)

Luna pura y sin mácula, Luna de plata o cristal: estas ideas, que encontramos en infinidad de poemas y obras pictóricas, se remontan a hace más de 2.300 años, época en la que Aristóteles planteaba su visión del cosmos. Según el gran filósofo griego, el universo se divide en dos mundos: el sublunar, la Tierra, donde todo es corrupto y mutable, y el supralunar, el de lo inmutable, armónico y equilibrado. La Luna para Aristóteles, como antesala de ese mundo supralunar, es un astro puro y perfecto.

La cosmología de Aristóteles prevaleció en Europa hasta el Renacimiento, pues era considerada por la Iglesia acorde con las Sagradas Escrituras, al mantener a la Tierra y al ser humano en el centro del universo y de la creación. Sobrevivió asimismo su concepción de la Luna y esto queda patente en numerosas obras de arte. Aún en la época barroca perviven estas ideas, como puede apreciarse en muchas representaciones de la Inmaculada, que muestran a la Virgen María tal y como es descrita en el Apocalipsis (12,1): «Apareció en el cielo una señal grande, una mujer envuelta en el sol, con la Luna bajo sus pies, y sobre la cabeza una corona de doce estrellas». En estas obras en general aparece la Luna como una superficie cristalina y sin defectos. Esta imagen de la Luna pura aparecía vinculada a la de la virgen inmaculada como consecuencia del sincretismo paleocristiano, que había asociado la virgen María a la popular diosa cazadora Diana, virgen también y diosa de la Luna. Así, la perfección lunar era una alegoría perfecta de la Inmaculada Concepción.

Sin embargo, con una mirada a nuestro satélite nos damos cuenta de que su superficie no es perfecta, sino que presenta contrastes entre zonas claras y oscuras; son las popularmente llamadas ‘manchas’ de la Luna. Hoy sabemos que se deben a variaciones de las propiedades geológicas y de composición de unas regiones a otras. Son apreciables a simple vista y en siglos pasados trataron de explicarse de diferentes maneras.

La idea de una superficie lunar irregular e imperfecta, con valles y montañas como la Tierra, había sido ya planteada en la era precristiana. Sin ir más lejos, de Plutarco proviene la idea de que las manchas oscuras visibles sobre la Luna debían ser mares, cuando al compararla con la Tierra escribió: “De igual forma que en la Tierra hay grandes y profundos mares, […] también los hay en la Luna”. Sin embargo, hacia la Edad Media y siglos posteriores aún había intentos de reconciliar esas ‘manchas’ con la filosofía aristotélica. Para ello, unos pensaron que nuestro satélite había sido parcialmente contaminado por la corrupción de la Tierra en el mundo sublunar. Otros, siguiendo a Clearco, discípulo de Aristóteles, defendían que la Luna era un espejo perfecto que reflejaba los continentes de la Tierra. Rodolfo II de Bohemia, patrón de Kepler, incluso aseguraba identificar la península italiana en las manchas lunares.

Con todo, la idea de una Luna lisa e inmaculada era la norma en las representaciones artísticas. Sin embargo, algunos artistas se alejaron de la norma y representaron nuestro satélite en su obra de manera bastante realista. El ejemplo más antiguo conocido corresponde al pintor flamenco Jan van Eyck (h. 1390-1441), que ejecutó un díptico de la Crucifixión y el Juicio Final hacia 1435-1440 (actualmente en el Museo Metropolitano de Arte de Nueva York). En la escena del Calvario la imagen de la Luna es diminuta, de no más de unos pocos centímetros de diámetro, pero de tamaño suficiente para ilustrar una serie de claroscuros, algunos de los cuales han sido identificados con rasgos lunares reales. Se considera la primera imagen realista de nuestro satélite, anterior incluso a los dibujos realizados por Leonardo da Vinci unos setenta años más tarde, hacia 1510.

Díptico de La Crucifixión y el Jucio Final

Díptico de La Crucifixión y el Jucio Final (Jan van Eyck, h. 1435-1440).

En 1609 Galileo utilizó por primera vez un telescopio para estudiar el Cosmos. Sus dibujos representando las fases lunares y el relieve de nuestro satélite son, además de un valioso documento científico, una obra de extraordinaria belleza. Curiosamente no consta que realizara ninguna observación telescópica de eclipses lunares, como el que tendremos oportunidad de ver en la madrugada del 27 al 28 de septiembre, aunque sin duda debió observarlos. Lo que sí mostró su estudio de la Luna es que lejos de ser perfecta, es rugosa; está llena de cráteres y montañas. Era la prueba definitiva de su imperfección. El cambio de visión hacia esta nueva Luna quedaría plasmado en el arte por primera vez por el pintor florentino Ludovico Cigoli (1559-1613), amigo y admirador de Galileo. En su última obra (1612), la Inmaculada de los frescos de Santa Maria Maggiore en Roma, la Virgen aparece sobre una Luna plagada de cráteres, muy parecida a la que dibujara Galileo a partir de sus observaciones y en cuyos dibujos se inspiró el artista. De esta manera Cigoli incorporaba en su trabajo artístico y difundía los resultados de los estudios de Galileo. Dejaba además constancia de una convicción profunda: la religión debe dar cabida a los avances científicos. O, dicho de otra manera, la fe debe adaptarse al progreso del conocimiento.

Dibujos de la Luna de Galileo y Virgen de Cigoli

Dibujos de la Luna realizados por Galileo (izqda.) y Virgen Inmaculada de Cigoli (derecha).

* Montserrat Villar es investigadora en el Centro de Astrobiología (INTA/CSIC) en el grupo de Astrofísica extragaláctica. Fernando J. Ballesteros es jefe de instrumentación en el Observatorio Astronómico de la Universidad de Valencia.

El ordenador cuántico: cuando el qubit se coma al bit

Por Mar Gulis (CSIC)

Ordenadores, discos duros, memorias, teléfonos inteligentes, tablets… Estamos acostumbrados a que los dispositivos informáticos sean cada vez más pequeños y potentes. Esta evolución ya fue descrita en los años 60 por Gordon Moore, uno de los fundadores de Intel, quien notó que el tamaño de estos dispositivos se reducía a la mitad cada 18 meses. De mantenerse esta tendencia, cosa que hasta ahora ha ocurrido en líneas generales, en pocos años habremos alcanzado la escala de las partículas atómicas.

Quantum machine

Máquina cuántica de un qubit desarrollada por Aaron D. O’Connell. / Wikipedia

El problema es que el comportamiento de estas partículas es muy distinto al que tienen los cuerpos en el mundo macroscópico, el que habitamos los seres humanos. Las poco intuitivas leyes que rigen el mundo de las partículas atómicas, definidas por la mecánica cuántica, nos obligan a transformar el modo en que transmitimos y procesamos la información. En la escala de los nanómetros, los electrones escapan de los canales por los que deben circular (efecto túnel) haciendo que los chips dejen de funcionar.

Sin embargo, lo que en principio se presenta como una desventaja abre un gran abanico de oportunidades, como la posibilidad de desarrollar ordenadores cuánticos con una capacidad de cálculo extraordinaria. La clave reside en utilizar uno de los fenómenos más desconcertantes del mundo cuántico, la superposición de estados, para sustituir la unidad mínima de información de la computación tradicional, el bit, por una nueva unidad con un potencial mucho mayor, el qubit o quantum bit. Aunque las implicaciones de este concepto son muy serias, el término fue acuñado de forma jocosa por su similitud fonética con el cubit inglés: el codo, una unidad de medida en desuso.

Vayamos por partes. Según la mecánica cuántica todas las partículas atómicas pueden estar en varios estados a la vez. Es la acción de medir algún parámetro (velocidad, posición, etc.) la que rompe la superposición y lleva a la manifestación de un estado determinado. Inspirados en la famosa paradoja de Schrödinger, podríamos decir que un gato cuántico encerrado en una habitación hermética junto a una trampa mortal, está vivo y muerto al mismo tiempo hasta que se abre la puerta del recinto. El acto de abrir la habitación –la observación o medida– es lo que hace que el gato asuma uno de los dos estados posibles: vivo o muerto.

Algo similar puede ocurrir con ciertos parámetros de las partículas cuánticas: aunque se encuentran en una superposición de estados, en el momento de la medición solo pueden adoptar uno de entre dos posibles. Esto sucede en ciertas ocasiones con el nivel energético de los átomos, la polarización de los fotones o el espín de los electrones –la dirección en la que ‘giran’ sobre sí mismos–. En el caso del espín, por ejemplo, al medir solo podemos encontrarlo hacia arriba –digamos arbitrariamente que esto significa que gira en el sentido de las agujas del reloj– o hacia abajo –girando en sentido contrario–.

Pues bien, las partículas con estas propiedades se comportan como qubits. El físico del CSIC Salvador Miret explica que, “a diferencia de un bit, que representa un 0 o un 1, un qubit puede transmitir esos dos estados y una variedad ilimitada de estados intermedios o de superposición”. En otras palabras, mientras que con un bit solo podemos decir si el gato está vivo (0) o muerto (1), un qubit puede albergar el dato de que el gato está mitad vivo, mitad muerto; tres cuartos vivo, un cuarto muerto; o un 25,32% vivo y un 74,68% muerto… “Las posibilidades son infinitas porque los qubits no expresan magnitudes discretas, como los bits, sino continuas”, añade el investigador.

Sistema cuántico

Sistema de cuatro qubits desarrollado por IBM. / IBM

En consecuencia, el comportamiento de las combinaciones de bits y qubits también es muy diferente. Si con un bit podemos expresar dos estados (0 y 1), con dos podemos expresar cuatro (00, 01, 10 y 11) y con tres, ocho (000, 001, 010, 011, 100, 101, 110, 111). Por cada bit que añadamos a la cadena el número de posibilidades se incrementará de forma exponencial. Ahora bien, aunque el número de posibilidades puede llegar a ser enorme, siempre será finito.

Los grupos de qubits no solo permiten albergar una infinidad de valores sino que hacen que la capacidad de procesar información de forma simultánea crezca exponencialmente gracias a la superposición y al entrelazamiento cuánticos –también llamado correlación–. Teóricamente con un qubit podríamos hacer al menos dos operaciones paralelas; con dos, cuatro; con tres, ocho; y así sucesivamente. Esto supone una importante novedad con respecto a la informática tradicional, que hasta hace relativamente poco tiempo afrontaba las operaciones de modo lineal y no ofrece la misma capacidad de los qubits para trabajar de forma simultánea.

Imaginemos, por ejemplo, que queremos encontrar la salida a un enorme laberinto. La computación clásica tendría que procesar los distintos caminos uno por uno o en pequeños grupos hasta encontrarla, mientras que la computación cuántica nos permitiría probar miles de caminos en un solo segundo. Así, un ordenador cuántico de 30 qubits equivaldría a un procesador de 10 teraflops (10 millones de millones de operaciones por segundo), cuando los ordenadores actuales trabajan en el orden de los gigaflops (miles de millones de operaciones). Los investigadores estiman que con 60 bits cuánticos podría construirse un ordenador más potente que todos los ordenadores clásicos de la Tierra.

Llegados a este punto, es inevitable preguntarse por qué no existe aún el ordenador cuántico. La principal dificultad es lograr que las partículas interactúen entre ellas sin interferencias del entorno. La interacción no controlada con otras partículas destruye las propiedades cuánticas de las partículas haciendo que se rompa la coherencia (decoherencia) y que, entre otras cosas, abandonen la superposición de estados; por lo que resulta imposible obtener resultados que vayan más allá de lo que se conseguiría operando con bits.

 

Si quieres más ciencia para llevar sobre este tema consulta el libro Mecánica cuántica (CSIC-Catarata), de Salvador Miret, y la revista LYCHNOS, Cuadernos de la Fundación General CSIC.

El “espeluznante” error de Einstein

Por Mar Gulis (CSIC)*

Una de las ideas más desconcertantes de la mecánica cuántica, la disciplina que estudia el comportamiento de la materia a escala microscópica, es la superposición de estados. Todas las partículas pequeñas –como los electrones o los átomos– pueden estar en varios estados a la vez. Es la acción de medir algún parámetro (velocidad, posición, etc.) la que rompe la superposición y lleva a la manifestación de un estado determinado.

Einstein-Bohr

Einstein y Bohr fotografiados en 1925.

Este planteamiento tan poco intuitivo, pero basado en numerosas evidencias, nunca terminó de convencer a Albert Einstein (1879-1955). El creador de la teoría de la relatividad se negaba a aceptar, por ejemplo, que un electrón pudiese estar en varios puntos a la vez y que fuese el intento de medir su posición lo que lo ‘fijara’ en uno de ellos. El electrón debía estar en un único punto antes de la medida. De ahí su célebre frase: “Dios no juega a los dados con el universo”. Y de ahí también la famosa réplica de su colega Niels Bohr (1885-1962), uno de los ‘padres’ de la mecánica cuántica: “Deje de decirle a Dios qué hacer con sus dados”.

Einstein no dudaba de que las observaciones y la formulación de esta disciplina eran correctas, pero pensaba que su indeterminismo hacía de ella una teoría incompleta. Una de las críticas más elaboradas que le dedicó se conoce como la paradoja EPR, así llamada por el nombre de sus autores: el propio Einstein, Boris Podolsky (1896-1966) y Nathan Rosen (1909-1995).

La paradoja proponía un experimento imaginario en el que, a partir de un fenómeno conocido y controlado, se creaban dos partículas (A y B) correlacionadas de tal forma que si una tenía el espín –la ‘dirección’ en la que las partículas giran sobre sí mismas– hacia arriba (giro a favor de las agujas del reloj), la otra debía tenerlo hacia abajo (giro en contra de las agujas del reloj). Sin embargo, de acuerdo con el principio de superposición, tenemos que suponer que tanto A como B tienen su espín hacia arriba y hacia abajo hasta el momento de la medición. Por tanto, al medir A no solo estaríamos ‘obligando’ a su espín a asumir una dirección determinada, sino que también estaríamos provocando que el espín de B adoptase la contraria. De acuerdo con las leyes de la mecánica cuántica, este entrelazamiento o correlación (como se denominó el fenómeno con posterioridad) debería mantenerse por más alejadas que estuvieran A y B.

Entrelazamiento

Matthias Weinberger

Esta conclusión chocaba con la teoría de la relatividad, según la cual nada puede viajar más rápido que la luz. Si A se queda en la Tierra y B viaja hasta Alfa Centauri, a más de cuatro años luz, ¿cómo una medición en A puede afectar a B inmediatamente? O bien la mecánica cuántica estaba incompleta o bien había que aceptar la existencia de una “espeluznante [o fantasmal] acción a distancia”; una comunicación instantánea entre A y B.

La paradoja EPR quedó en el terreno de la filosofía de la ciencia hasta que en 1964 John Bell (1928-1990) propuso una forma matemática para resolverla. No obstante, hubo que esperar hasta los años 80 para que Alain Aspect (1947) y sus colaboradores lograsen trasladar al laboratorio la propuesta de Bell de forma satisfactoria. Los experimentos dieron la razón a la mecánica cuántica: el entrelazamiento y la acción a distancia son parte del mundo microscópico. Y aquí tenemos una de las diferencias entre la teoría de la relatividad y la cuántica que hace tan difícil unificarlas: si la primera es una teoría local, porque la velocidad de la luz es finita y los fotones necesitan un tiempo para ir de un sitio a otro, la segunda es no local, lo que hace que la acción de una perturbación pueda transmitirse instantáneamente de un sitio a otro muy alejado.

El genial Einstein se equivocó en esta ocasión. Sin embargo, su error resultó enormemente fructífero, pues condujo a verificar la existencia de un fenómeno con amplio potencial de aplicaciones. El entrelazamiento es la base del desarrollo de tecnologías cuánticas que previsiblemente transformarán el mundo tal y como lo conocemos hoy en día. Ordenadores cuánticos mucho más potentes que los actuales, nuevos métodos de encriptación práctiacamente inviolables y hasta la teletransportación de partículas microscópicas son solo algunas de ellas. Te las contaremos en próximos posts.

 

* Si quieres más ciencia para llevar sobre este tema, consulta el libro Mecánica cuántica (CSIC-Catarata), del investigador del CSIC Salvador Miret.

A la caza del agujero negro en el corazón de la Vía Láctea

M. VillarPor Montserrat Villar (CSIC)*

Si pudiéramos reducir el tamaño de la Tierra al de un azucarillo, nuestro planeta se convertiría en un agujero negro. En teoría, lo mismo ocurriría con cualquier objeto siempre que contáramos con un sistema capaz de comprimirlo lo suficiente: una casa, una mesa, yo misma. Por debajo de un tamaño crítico el efecto de la gravedad será imparable: ninguna fuerza podrá impedir el colapso e inevitablemente se formará un agujero negro. Ese tamaño crítico viene determinado por el llamado ‘radio de Schwarschild’ y depende únicamente de la masa del objeto en cuestión. Es decir, conocida la masa, el radio de Schwarschild se deduce con facilidad. Para la Tierra es aproximadamente 1 centímetro, mientras que para el Sol son unos 3 kilómetros. Por tanto, si el Sol se redujera a una bola de unos 3 kilómetros de radio, nada impediría que se convirtiera en un agujero negro.

Agujero negro

Distorsión visual que observaríamos en las proximidades del agujero negro en el centro de la Vía Láctea debida a los efectos de la gravedad.

La existencia de un agujero negro en el centro de nuestra galaxia, la Vía Láctea, fue propuesta en 1971 a partir de evidencias indirectas. Las pruebas concluyentes empezaron a acumularse hacia 1995 y hoy su existencia está confirmada. ¿Cómo lo sabemos?

Para comprobarlo necesitamos determinar cuánta masa hay en el centro galáctico y el volumen que ocupa. Si es menor que el correspondiente al ‘radio de Schwarchild’, tendremos la prueba definitiva. Sin embargo, no podemos ver un agujero negro. En el interior de dicho radio (que coincide con el llamado horizonte de sucesos del agujero negro), la fuerza de la gravedad es tan intensa que nada, ni siquiera la luz, puede escapar. ¿Cómo medir la masa y el volumen de algo que no podemos ver?

Esto se ha logrado estudiando cómo se mueven las estrellas más cercanas a la localización de ese objeto invisible en el centro de nuestra galaxia, región llamada Sagitario A*. Puesto que la fuerza de la gravedad determina los movimientos de dichas estrellas, midiendo la velocidad, forma y tamaño de sus órbitas podremos inferir la masa responsable y determinar su tamaño máximo.

A mediados de la década de los 90 y durante casi veinte años se han rastreado los movimientos de unas treinta estrellas, las más próximas conocidas a Sagitario A*. Para estas observaciones astronómicas se utilizaron los mayores telescopios ópticos del mundo (telescopios VLT y Keck, en Chile y Hawai respectivamente). Así se obtuvo la visión más nítida conseguida hasta la fecha del centro de nuestra galaxia.

örbitas

Imagen generada por ordenador. Órbitas de las estrellas conocidas más próximas a Sagitario A* rastreadas a lo largo de veinte años (Keck/UCLA/A. Ghez).

La estrella más cercana a Sagitario A* tarda poco más de quince años en describir su órbita y se acerca a una distancia mínima equivalente a unas tres veces la distancia media entre el Sol y Plutón. Llega a alcanzar una velocidad de ¡18 millones de kilómetros por hora! Para explicar movimientos tan extremos se necesita una masa equivalente a cuatro millones de soles. El ‘radio de Schwarschild’ correspondiente a esta masa es de unos 13 millones de kilómetros. Medidas realizadas con técnicas diversas demuestran que ese objeto invisible ocupa un volumen con un radio de, como máximo, unos 45 millones de kilómetros; es decir, unas 3.5 veces el ‘radio de Schwarschild’. Aunque estrictamente no podemos afirmar que la masa central está contenida en un volumen inferior al de Schwarshchild, sabemos que se trata de un agujero negro. Pensemos que en un volumen menor que el que contiene al Sol y Mercurio, tendríamos que ‘empaquetar’ cuatro millones de soles. No hay explicación alternativa: nada que conozcamos puede tener una masa tan enorme y ocupar un volumen tan pequeño.

 

* Montserrat Villar es investigadora en el Centro de Astrobiología (INTA/CSIC) en el grupo de Astrofísica extragaláctica

El ‘harén de Pickering’: 13 mujeres para la historia de la astronomía

Por Mar Gulis (CSIC)*

<cx<c

A pesar de ser poco conocidas, estas 13 mujeres hicieron interesantes aportaciones a la astronomía / Wikipedia

No sabemos quién sacó esta fotografía, pero sí que la imagen fue tomada el 13 de mayo de 1913 en el Observatorio Astronómico de Harvard, en Estados Unidos. Y también que las 13 mujeres que aparecen en ella jugaron un papel importante en todo lo que aconteció en el interior de ese edificio. Fundado en 1839, el Observatorio comenzó su andadura centrándose en desarrollar los primeros trabajos astrofotográficos estadounidenses. Pero a partir de 1877, a raíz del nombramiento de su nuevo director, el astrónomo Edward Charles Pickering, toda la actividad se limitó a la fotografía estelar. Es entonces cuando entraron en escena las protagonistas de esta historia.

A finales del siglo XIX este grupo de 13 mujeres, conocidas hoy como ‘las calculadoras de Harvard’, se dedicaron a contar y clasificar estrellas en el Observatorio. Realizaban un trabajo tedioso y mecánico que, sin embargo, “ayudó a sentar las bases de la astrofísica moderna”, explica la filósofa del CSIC Eulalia Pérez Sedeño.

Entre ellas la apenas conocida Williamina Fleming desempeñó un rol crucial. Después de trabajar como criada en el hogar de Pickering, este la contrató para realizar tareas administrativas y cálculos matemáticos. Su eficacia hizo que el astrónomo confiara en ella para custodiar el archivo fotográfico del Observatorio y, con el tiempo, también le encargó reclutar y dirigir a otras mujeres que irían configurando lo que desafortunadamente se conoció como el ‘harén de Pickering’.

Annie Jump Cannon, Antonia Maury, Margaret Harwood o Henrietta S. Leavitt, entre otras, se fueron sumando a este grupo. Básicamente se dedicaban a catalogar y clasificar estrellas midiendo variables como el brillo, la posición y el color de cada astro a partir de placas fotográficas, un trabajo por el que obtenían salarios muy inferiores a los de los hombres.

Durante mucho tiempo estas mujeres cayeron en el olvido, eclipsadas por Pickering y otros astrónomos. “Se consideró que lo único que hacían era contar, computar espectros estelares. Sin embargo, con esos cálculos hicieron muchas cosas”, explica Pérez Sedeño, investigadora en el Centro de Ciencias Humanas y Sociales (CCHS-CSIC). Henrietta Levitt, quizá hoy la más conocida, “estudió más de 1.500 estrellas variables en las Nubes de Magallanes, estableciendo la relación entre la luminosidad o brillo de las estrellas y sus periodos. Esa relación es la espina dorsal de la escala de las distancias, que se utiliza para medir las distancias de las galaxias”.

Pérez Sedeño afirma que el ‘harén de Pickering’ es un ejemplo de cómo la historia de la ciencia a menudo se ha escrito a partir de los grandes nombres, casi siempre masculinos, olvidándose de la contribución de muchas mujeres a los avances científicos.

Para contrarrestar ese olvido se ideó ‘El diario secreto de Henrietta S. Leavitt’, un proyecto del Instituto de Astrofísica de Andalucía (IAA-CSIC) que trata de explicar cuáles fueron las aportaciones de esta científica. A través de varios audiovisuales, una Henrietta ficticia cuenta en qué consistió su trabajo en el Observatorio, cómo descubrió estrellas variables en la Pequeña Nube de Magallanes y quiénes son algunas de sus compañeras, ‘las calculadoras’ que tanto aportaron a la astronomía.