Archivo de enero, 2016

Mosquitos tigre, eucaliptos, mejillones cebra… ¿Las especies exóticas son siempre perjudiciales?

jorge-casinelloPor Jorge Cassinello (CSIC)*

Periquitos y cotorras argentinas sobrevolando la Casa de Campo de Madrid, mosquitos tigre que se convierten en un problema de salud pública en la costa mediterránea, bosques plagados de eucaliptos… Estos son algunos ejemplos de especies exóticas presentes en España. Una especie exótica o alóctona es aquella que llega a determinado territorio o ecosistema sin utilizar sus propios medios ni la intervención de procesos naturales. Se introduce por acción del ser humano, ya sea de forma intencionada o accidental. Ahora bien, ¿cuándo una especie exótica es invasora?

Hasta hace pocos años el concepto ‘invasor’ se aplicaba a las especies exóticas establecidas y en proceso de expansión; sin embargo, recientemente la Unión Internacional para la Conservación de la Naturaleza estableció que una especie exótica invasora es aquella que causa daños y perjuicios en el ecosistema huésped. Esta es la definición aceptada en la actualidad, y por ello podemos equiparar el término ‘invasor’ con ‘perjudicial’ o ‘dañino’.

Desde un punto de vista evolutivo y ecológico, la presencia de una especie foránea en un ecosistema puede ocasionar importantes alteraciones. Esto se debe a que la especie exótica llega a una cadena trófica establecida evolutivamente y -sea como depredadora, competidora o como nueva fuente de alimento- puede originar cambios en la abundancia, distribución o supervivencia de las especies nativas.

Mosquito tigre capturado en el interior de un vehículo. Foto: app Tigatrapp

Mosquito tigre capturado en el interior de un vehículo. / App Tigatrapp.

¿Son todas las especies de origen exótico invasoras? Evidentemente no. La gran mayoría de las especies introducidas por el ser humano no tienen efectos negativos reconocidos sobre los ecosistemas. Este sería el caso de una buena parte de las plantas ornamentales o de los cultivos de plantas originarias de América que hoy se encuentran muy extendidos en todos los continentes, como el maíz, la patata o el tomate. Sólo unas pocas de las especies exóticas introducidas (en EEUU se estima que entre un 4-19%) han demostrado ser perjudiciales, al desplazar o incluso llevar a la extinción a especies autóctonas. Contamos con ejemplos muy conocidos, como el mejillón cebra y el mosquito tigre, pero también con la caña común o cañabrava, la carpa, el cangrejo americano, entre otros, así como las cabras y gatos domésticos introducidos en islas.

Aunque en muchos casos faltan estudios concluyentes, podemos establecer una serie de criterios para considerar el potencial invasor de una especie exótica.

Pensemos en una especie exótica imaginaria, la cual llega a nuestros lares por acción humana. ¿Qué ha de suceder para que sea considerada invasora? En primer lugar, es esencial que las condiciones climáticas, geográficas y ambientales sean adecuadas para el establecimiento, reproducción y desarrollo de dicha especie. A continuación es muy importante observar el grado de similitud evolutiva entre la especie introducida y las nativas. Si difieren sustancialmente a nivel evolutivo, la especie exótica asentada tiene muchas probabilidades de volverse invasora. Ejemplos paradigmáticos serían las introducciones de depredadores en islas o mamíferos placentados invasores en Australia, como el conejo, el dingo, el búfalo de agua o el dromedario.

Sin embargo, si la especie exótica y las nativas son semejantes evolutivamente existen muchas probabilidades de que la recién llegada ocupe un nicho ecológico acorde con las cadenas tróficas existentes, y en este caso su impacto dependerá de la presencia de la especie nativa. Así, si la especie nativa está presente podría darse competencia por los recursos y por tanto la especie exótica podría ser considerada invasora, como la ardilla gris de las Carolinas desplazando a la ardilla roja o el visón americano haciendo lo propio con el europeo. Pero si la especie nativa está extinta o no presente la exótica podría ocupar su nicho y cubrir un vacío útil para el ecosistema huésped. Un ejemplo sería el caso de las tortugas gigantes de las Seychelles introducidas en la Isla de Mauricio, en donde hace mucho tiempo se extinguieron las tortugas gigantes autóctonas.

ejemplar de arrui

Ejemplar de arrui. / Wikimedia.

Por último, si la especie exótica se establece en un medio alterado por el ser humano puede tener efectos positivos o negativos, en función del papel que juegue en la cadena trófica. Estos casos deben ser estudiados cuidadosamente, pues es probable que haya efectos inesperados en el contexto del cambio climático. Un ejemplo es el del arrui, un ungulado norteafricano emparentado con cabras y ovejas presente en el sureste español desde hace más de 40 años. El arrui se ha adaptado a las condiciones semiáridas de sierras murcianas y andaluzas y, paradójicamente, podría ayudar a mantener la diversidad de pastos silvestres en un escenario de calentamiento global y avance de la desertificación.

Es fundamental establecer con criterios científicos qué especies exóticas son invasoras y cuáles no, porque de lo contrario podemos dedicar ímprobos esfuerzos a erradicar una especie que en realidad no está perjudicando al medio natural.

Si nos atenemos a la definición de especie exótica invasora no podemos negar una realidad: la especie invasora más abundante y que ha colonizado prácticamente todos los rincones del planeta es el Homo sapiens. Así puede considerarse desde que tuvo la capacidad de desplazarse grandes distancias gracias a la creación de medios de transporte, y de establecerse y crecer alterando el medio y generando sus propias fuentes de subsistencia. Sin mediar ya ninguna relación coevolutiva con la mayoría de los ecosistemas huésped, es nuestro deber moral preservarlos y paliar al máximo los efectos negativos que les hemos ocasionado.

 

* Jorge Cassinello Roldán es investigador del CSIC en la Estación Experimental de Zonas Áridas y miembro de la Comisión por la Supervivencia de las Especies de la UICN.

Superconductividad de alta temperatura, el enigma que desafía a los científicos

leni bascones

Por Leni Bascones (CSIC)*

Hace treinta años, el 27 de enero de 1986, en el laboratorio de IBM en Zurich,  los científicos Georg Bednorz y Alex Müller observaron que un óxido de cobre dejaba de presentar resistencia al paso de la corriente eléctrica por debajo de 238 grados bajo cero. Por este descubrimiento, que daría lugar a uno de los grandes enigmas de la física, recibirían en 1987 el premio Nobel de Física más rápido de la historia.

La superconductividad es una propiedad que se conoce desde 1911, por la cual algunos materiales pierden la resistencia eléctrica y expulsan los campos magnéticos al enfriarse por debajo de una temperatura crítica.  La  novedad del descubrimiento de Bednorz y Müller residía en la temperatura y el tipo de materiales en que observaron este fenómeno.

A pesar de la gran cantidad de materiales superconductores que se conocían hasta esa fecha, ninguno presentaba superconductividad por encima de 250  grados bajo cero, 23 grados por encima del cero absoluto, por lo que la temperatura medida por Berdnorz y Muller suponía un notable aumento. El hallazgo cobró una importancia mucho mayor al descubrirse poco después que otros óxidos de cobre eran superconductores a temperaturas de hasta 140 grados bajo cero.  En aquella época se pensaba que no era posible encontrar superconductores a temperaturas tan altas.

El aumento de la temperatura crítica es muy importante para las aplicaciones de los superconductores. Cuando la temperatura de transición es muy baja es necesario utilizar helio líquido para enfriar, que es muy costoso y complicado de manejar. Cuando el superconductor se puede utilizar a temperaturas por encima de 196 grados bajo cero se puede enfriar con nitrógeno líquido, que es mucho más barato y un poco más fácil de utilizar.

En 1957 los físicos Bardeen, Cooper y Schrieffer, en su teoría BCS (llamada así por las iniciales de sus nombres), explicaron que el estado superconductor es un estado colectivo en el que los electrones forman pares, los llamados pares de Cooper, y que estos pares se mueven de forma coordinada (ver animación). Para que los electrones formen pares es necesario que se atraigan. Los electrones son partículas cargadas, por lo que en condiciones generales se repelen. Según la teoría BCS, gracias a las vibraciones de los átomos cargados positivamente que forman la red cristalina del material se establece una atracción efectiva entre los electrones.

La mayoría de los superconductores que se conocían hasta 1986 eran metales normales, algunos muy presentes en nuestra vida diaria, como el plomo o el aluminio; otros menos como el niobio-estaño. En estos superconductores la teoría BCS funciona bien. Sin embargo los óxidos de cobre superconductores, habitualmente llamados cupratos, son materiales cerámicos en los que la repulsión entre los electrones es extremadamente fuerte. Resulta paradójico que la superconductividad involucre la formación de pares de electrones, al tiempo que las mayores temperaturas críticas se encuentran en los compuestos con mayor repulsión electrónica.

La superconductividad de los cupratos no puede explicarse según la teoría convencional de Bardeen, Cooper y Schrieffer, en las que el pegamento de los pares de electrones son las vibraciones de la red. Se cree que de alguna forma la propia repulsión electrónica juega un papel importante en la superconductividad. No está claro de qué forma.

Desde 1986 se ha hecho un gran esfuerzo por entender el origen de la superconductividad y las propiedades de estos compuestos. Los cupratos son, de hecho, los materiales que más se han estudiado a lo largo de la historia. Su estudio ha propiciado el desarrollo de técnicas experimentales y teóricas. Sin embargo, de momento no hay ninguna teoría aceptada por la comunidad científica que explique su comportamiento. Lo cierto es que, dadas las anómalas propiedades de estos sistemas, ni siquiera entendemos el estado normal (no superconductor) a temperaturas por encima de la temperatura crítica. Treinta años después la superconductividad de alta temperatura sigue siendo un enigma para los científicos.

Imán levitando sobre un superconductor

Imán levitando sobre un superconductor de alta temperatura en un taller sobre superconductividad en el ICMM (CSIC)/Laura Ferrando.

Durante estos años la investigación nos ha deparado nuevas sorpresas. En 2008, Hideo Hosono y su grupo descubrieron superconductividad de alta temperatura en compuestos basados en hierro. A pesar de que las temperaturas críticas de estos materiales no es tan alta como la de los cupratos, el descubrimiento revolucionó a la comunidad científica que se volcó en estos nuevos materiales. Los superconductores de hierro comparten muchas propiedades con los cupratos, en particular la importancia de la repulsión entre los electrones y quizá el origen de la superconductividad. Sin embargo, diferencias a nivel microscópico tienen consecuencias importantes en las propiedades que se observan, por lo que aún no está claro el nexo que une a los dos tipos de compuestos.

La última gran sorpresa en temperaturas críticas en superconductores llegó el año pasado. Mikhail Eremets y sus colegas observaron superconductividad a -70ºC, ¡el récord!, en un compuesto de hidrógeno y azufre que habían sometido a presiones extremadamente altas. Este descubrimiento, que aún está por confirmar por otros grupos de investigación, difiere de los anteriores. Por primera vez un superconductor de alta temperatura ha sido predicho, antes de ser observado.  La diferencia es que este sistema es un superconductor convencional, y, por tanto, entendemos el origen de la superconductividad.

Seguiremos trabajando por encontrar nuevos superconductores de alta temperatura crítica, quizá a temperatura ambiente, y sobre todo por entender la superconductividad de alta temperatura no convencional.

*Leni Bascones investiga junto a María José CalderónBelén Valenzuela los nuevos superconductores de hierro en el Instituto de Ciencia de Materiales de Madrid del CSIC. Puedes saber más sobre superconductividad en su web de divulgación y seguir sus noticias a través de su twitter.

El bosón de Higgs y la metáfora del mar


enrique70
JaimeJulve70Por Jaime Julve y Enrique J. de la Rosa (CSIC)*

No siempre es fácil entender, ni explicar, las características de las partículas elementales que se estudian en laboratorios como el Gran Colisionador de Hadrones (LHC, por sus siglas en inglés), el mayor y más potente acelerador de partículas del mundo, que opera en la Organización Europea para la Investigación Nuclear (CERN), en Ginebra. No tenemos experiencia directa sobre ellas en nuestro día a día, aunque constituyan la estructura básica de la materia y del universo. Por ello se acude a símiles, con menor o mayor acierto.

LHC

El Gran Colisionador de Hadrones en el CERN /Morton Lin

En física cuántica, como en cualquier otro campo de la ciencia, la herramienta de trabajo es el método científico. Este método establece que, una vez observada la naturaleza, se planteen hipótesis de trabajo. Dichas hipótesis, según se validan por métodos matemáticos o experimentales, van conformando una teoría (en el caso que vamos a tratar,  la Teoría Cuántica de Campos y, en concreto, el Modelo Estándar de las Partículas Elementales). Y, de nuevo, se establecen nuevas hipótesis o previsiones cualitativas y cuantitativas que deben volver a ser validadas.

El bosón de Higgs era una previsión del Modelo Estándar de las Partículas Elementales hecha en 1964 y que llevó casi 50 años validar. El primer símil, o ejemplo basado en la experiencia que todos tenemos, tiene que ver con el experimento realizado para su validación. Si cogemos dos objetos cualesquiera y los hacemos chocar con suficiente velocidad, se romperán en sus piezas constituyentes, si las tienen, como es el caso de los hadrones (los protones, por ejemplo). Este tipo de choques, llevados al límite, son los experimentos del CERN: descomponer la materia hasta llegar a aquellas partículas que ya no se pueden romper en nada. Esas son las partículas elementales constituyentes de la materia. Paradójicamente, si hacemos colisionar partículas, incluso elementales (los electrones, por ejemplo), por conversión de su energía cinética en masa (la famosa ecuación de Einstein), se crean multitud de partículas elementales y no elementales. La tecnología del colisionador de hadrones del CERN ha sido esencial para validar el bosón de Higgs, creándolo en estas colisiones.

El segundo símil tiene que ver con lo que representa el bosón de Higgs. En la Teoría Cuántica de Campos, las diferentes partículas elementales son excitaciones del correspondiente campo cuántico que, en reposo (no excitado), estaría vacío de partículas y energía. Para dotar de masa (y energía) a las partículas hay que recurrir al campo de Higgs y a un artificio teórico que dota a su estado no excitado, vacío de partículas de Higgs, de una energía que permea todo el espacio y confiere masa al resto de partículas. Así, los bosones de Higgs, ahora detectados, serían las excitaciones del campo de Higgs.

Interacción de Higgs

Una imagen generada por ordenador de la interacción de Higgs. Lucas Taylor / CERN

El mecanismo por el que las demás partículas adquieren masa se visualiza a menudo con la imagen de una miel que llena el espacio, a la que se pegan mucho algunas de las partículas, haciéndolas ‘pesadas’, mientras otras se pegan poco (electrones) o muy poco (neutrinos), o nada en absoluto (fotón y gluones) las de masa nula. El ejemplo de la miel, como otros, no es del todo satisfactorio y proponemos aquí otro mejor. “Pegarse a la miel” alude al concepto de viscosidad, una resistencia al movimiento del móvil inmerso proporcional a la velocidad (si no empujamos siempre, el móvil se frena y para), mientras que la masa es sinónimo de resistencia a la aceleración (si no empujamos, sigue con velocidad constante).

Un ejemplo algo más fiel sería el siguiente. Imaginemos el campo de Higgs como un océano de agua y las partículas como barcos ligerísimos (idealmente de tara nula) y casco que corta el agua sin resistencia (nada de miel viscosa), que pueden cargar más o menos agua de lastre. Uno que no cargue nada permanecerá con masa nula, o sea que se puede aceler sin esfuerzo. Uno que embarque algunos kilos tendrá esa masa y costará algo acelerarlo. Un tanker que embarca cientos de miles de toneladas… ya podemos imaginar. Esta es la masa adquirida mediante el mecanismo. La cuestión de cuánto vale se traslada a la de cuánta agua embarca: en el modelo este parámetro lo da la “constante de acoplamiento” entre el campo de la partícula y el campo de Higgs, un parámetro por ahora empírico, dictado por la naturaleza. Es una modelización más que una explicación, pero que resuelve problemas teóricos.

 

* Jaime Julve es vicedirector del Instituto de Física Fundamental del CSIC, miembro del comité académico de las Olimpiadas de Física desde su comienzo en España y activo divulgador científico con numerosas conferencias. Enrique J. de la Rosa es investigador del CSIC en el Centro de Investigaciones Biológicas. Este texto ha sido inspirado por una charla impartida por Julve en el marco de ‘Ciencia con chocolate’.

Padres y madres corresponsables, ¿una utopía real?

Por Teresa Martín García (CSIC)*, Teresa Jurado (UNED) y M. José González (Universität Pompeu Fabra)

Las largas jornadas laborales dificultan el reparto equitativo de las tareas domésticas / Flickr

Las largas jornadas laborales dificultan el reparto equitativo de las tareas domésticas / Flickr

No se conoce un solo país en el mundo que realmente fomente un modelo de familia en la que el padre y la madre se corresponsabilicen por igual en la organización de la vida doméstica y el cuidado de sus hijos. A pesar de que cada vez más jóvenes se identifican con la igualdad de género, el número de parejas con un reparto igualitario de las tareas domésticas y de cuidado sigue siendo minoritario. En el modelo familiar de “dos ingresos y dos cuidadores”, denominado así por Janet Gornick y Marcia Meyers, hombres y mujeres son empleados y cuidadores en diferentes etapas de su vida, sin que ninguno se quede atrás o esté penalizado laboralmente por ausentarse temporalmente del mercado de trabajo o reducir su jornada laboral. Las virtudes de esta familia utópica que planteamos son muchas, pero podemos resumirlas con tres argumentos.

En primer lugar, este modelo implica y fomenta relaciones de género igualitarias. Las mujeres tienen un papel cada vez más importante en el mercado de trabajo, pero nuestras sociedades han sido incapaces de erradicar las desigualdades de género, especialmente entre hombres y mujeres con hijos. Las madres con niños pequeños suelen tener jornadas laborales más reducidas que los padres, generalmente disfrutan de permisos por maternidad más largos, a menudo ocupan puestos de menor responsabilidad y con frecuencia cobran menos que sus coetáneos varones. En ningún país de la OCDE se ha alcanzado la paridad salarial entre hombres y mujeres con responsabilidades familiares. Paralelamente, aunque los hombres se implican cada día más en el cuidado de sus hijos, su dedicación no es proporcional a los cambios que han experimentado las mujeres en el mercado laboral. El reparto de las tareas domésticas sigue siendo bastante desigual, tanto en España como en otros países occidentales.

En segundo lugar, la familia de “dos ingresos y dos cuidadores” no solo valora la dedicación profesional, sino también el tiempo dedicado a los cuidados. La incorporación de la mujer al mercado laboral ha mejorado los ingresos de los hogares, pero también ha generado nuevos problemas relacionados con la escasez de tiempo y con la crisis de los cuidados. En España, en 2013, el promedio semanal de horas trabajadas en una jornada a tiempo completo fue de 42,6 horas para los hombres y de 40 para las mujeres. En Dinamarca, de 39,6 horas para los hombres y 36,8 para las mujeres, según datos de la OCDE. Estas largas jornadas, sobre todo en el sur de Europa, son un hándicap para la implicación de padres y madres en la corresponsabilidad de los cuidados y el reparto equitativo de las tareas domésticas. Generalmente la llegada de los hijos hace que ellas opten por una reducción de la jornada laboral, mientras que ellos la mantienen o incluso la amplían.

 El modelo de familia de "dos ingresos y dos cuidadores" valora también el bienestar de la infancia / Wikipedia

El modelo de familia de «dos ingresos y dos cuidadores» valora también el bienestar de la infancia / Wikipedia

En tercer lugar, las familias de “dos ingresos y dos cuidadores” contribuyen al bienestar de la infancia, porque en ellas los padres tienen tiempo para estar con sus hijos y estos pueden disfrutar de sus padres. Hasta ahora las políticas de conciliación se han preocupado de las necesidades de los progenitores que trabajan y han desatendido las de los niños. Solo se ha pensado en cómo liberar tiempo para el empleo, sobre todo de las madres, mediante la creación de escuelas infantiles. Pero no se ha planteado qué necesita un niño de corta edad o hasta qué punto es beneficioso para un bebé pasar más de ocho horas diarias en un centro educativo. El empleo de los padres o de la madre en particular no es perjudicial para los niños, todo lo contrario, pero determinados turnos y jornadas de trabajo o muchas horas en centros educativos durante los primeros años ponen en riesgo el bienestar de la infancia.

Ahora bien, este modelo de familia –más justo y equitativo– requiere importantes cambios en las políticas públicas, la organización de las empresas y a nivel familiar, por lo que hoy sigue siendo una aspiración más que una realidad. En nuestro país, las trayectorias igualitarias en cuanto al reparto del trabajo doméstico y de los cuidados solo se dan bajo relativamente buenas condiciones laborales de las mujeres y cuando ellas se han emparejado con hombres que tienen ideales igualitarios y, en general, recursos relativos y de tiempo similares a los de ellas. Las condiciones de empleo de los hombres tienen que ser también relativamente buenas para que ellos puedan cuidar o, en su defecto, haber tenido una prestación contributiva por desempleo generosa. Además, ambos miembros de la pareja tienen que nadar a contracorriente de muchos estereotipos de género entre sus referentes, y deben luchar contra sus propias interiorizaciones de ideas y formas de hacer patriarcales. Estas madres y padres no solo se enfrentan a rasgos culturales machistas, sino también a las políticas empresariales y públicas vigentes.

Este modelo familiar con un reparto igualitario del trabajo no remunerado consigue unir igualdad de oportunidades para ambos géneros, satisfacción con la conciliación y seguridad económica para todos los miembros de la familia, pero requiere un apoyo público que vaya más allá de meras campañas de publicidad a favor de un reparto equilibrado del trabajo doméstico y en contra de la discriminación de las mujeres en el mercado laboral. Urgen medidas que fomenten y normalicen –tanto en la sociedad en general como en el mercado de trabajo en particular– nuevas concepciones de la maternidad y la paternidad como un fenómeno que atañe por igual a mujeres y hombres y cuya protección debe garantizarse a ambos sexos. De nuestras investigaciones se desprende que hay aún un gran margen de mejora para favorecer estrategias de conciliación más corresponsables y satisfactorias. Especialmente entre los hombres que en el momento del embarazo presentan actitudes igualitarias y deseos de paternidad compartida, pero cuyos planes se ven limitados por unos constreñimientos laborales muy fuertes. Se trata, en definitiva, de promover el cambio en el mercado de trabajo y en el diseño de las políticas de familia por el que ha abogado el paradigma feminista de Gornick y Meyers con el que abríamos este post y que busca compatibilizar un triple objetivo: promover la igualdad de género, la conciliación y el bienestar en la infancia.

 

* Teresa Martín García es investigadora en el Instituto de Economía, Geografía y Demografía del CSIC. Este post ha sido extraído del libro Padres y madres corresponsables. Una utopía real (Catarata, 2015), del que es coautora.

 

¿Matarías a una persona para salvar a cinco? Ética e intuiciones morales

AutorPor Fernando Aguiar (CSIC)*

Un tranvía corre sin frenos hacia cinco trabajadores que, ajenos a la desgracia que les espera, arreglan unas traviesas. Si nadie lo remedia morirán arrollados. Por fortuna, alguien lo puede remediar, usted, que presencia la escena: basta con que cambie las agujas para desviar el vagón hacía una vía muerta en la que solo hay un trabajador. Es cierto que ese trabajador morirá, pero se salvarán los otros cinco. ¿Cambiaría las agujas sabiendo cuál es el resultado de su decisión?

Si considera que salvar a cinco personas es la mejor opción en este caso, coincidirá usted con la mayoría de la gente: en efecto, el 90% dice que cambiaría las agujas. Sin embargo, imagine que se encuentra ante una situación similar a la anterior, pero ahora en lugar de cambiar las agujas tiene que empujar a una persona muy gorda para que con su gran volumen detenga el tranvía. Esa persona también morirá sin remedio, pero las otras cinco se salvarán. ¿La empujaría? ¿Qué le dictan sus intuiciones morales en este caso?

John Holbo 2

Ilustración: John Holbo

Aunque de nuevo se trata de salvar a cinco personas a costa de una, en esta ocasión solo un 25% de la gente asegura que daría el empujón fatal: no es lo mismo matar que dejar morir; eso es lo que, al parecer, nos dicen nuestras intuiciones morales. ¿Y si el que está en la vía muerta es su padre? ¿Y si es su hijo? ¿Los sacrificaría para salvar a cinco personas? La intuición nos dicta que no tenemos por qué cambiar las agujas. ¿Y si es un niño desconocido? En tal caso, las intuiciones morales de hombres y mujeres son distintas, pues ellos dicen estar dispuestos en mayor medida que ellas a desviar el tranvía.

Las intuiciones morales –la percepción inmediata de que una acción es moralmente correcta o incorrecta– son importantes para entender muchas de nuestras decisiones, convicciones, dilemas y contradicciones. Esas intuiciones a veces son claras y la reflexión las confirma; otras, sin embargo, son confusas, poco fiables y están sesgadas por todo tipo de prejuicios. En cualquier caso, es preciso conocerlas bien, tanto su naturaleza como sus fundamentos, dado que nos sirven de guía para la acción moral. Esa es, precisamente, la tarea de una nueva rama de la filosofía denominada ‘ética experimental’. Ahora bien, ¿‘ética’ y ‘experimental’ no son términos contrapuestos? ¿Cómo puede ser experimental una disciplina que trata sobre el deber ser, sobre cómo debemos comportarnos?

La filosofía se ha considerado ajena a la producción de datos, lo que no significa que haya carecido de interés por ellos y por las ciencias que los generan. De hecho, durante los siglos XIX y XX (cuando la separación entre ciencia y filosofía ya es completa) buena parte de la mejor filosofía se apoyó en datos científicos de todo tipo, sociales y naturales, para reforzar o ilustrar sus teorías. Sin embargo, no era su misión producirlos; antes al contrario, cómodamente sentado en su butacón, el filósofo especulaba sobre los fundamentos de la realidad natural, social o política y sobre la naturaleza de la moral sin mancharse las manos con cuestiones empíricas. Con el surgimiento de la ética experimental, apenas hace diez años, ese panorama cambió por completo: como otras ramas de la filosofía, la ética se ha propuesto ahora generar sus propios datos.

Tranvía

Ilustración: John Holbo

¿Pero qué necesidad tiene la ética de producir datos? ¿Qué busca? Busca intuiciones morales como las del ejemplo del tranvía u otras similares sobre egoísmo, altruismo, virtud, tolerancia, honradez, corrupción, crueldad, generosidad, etc. ¿Devolvería usted una cartera llena de dinero? ¿Llegaría tarde a una importante cita por ayudar a alguien? ¿Renunciaría a un soborno millonario? La ética experimental estudia las intuiciones morales de la gente para conocer su naturaleza y sus límites, propiciando al mismo tiempo que las teorías éticas sean más realistas. Supongamos que ningún ser humano estuviera dispuesto a mover las agujas del tranvía para salvar a cinco personas frente a una, ¿qué sentido tendría que una teoría nos dijera que el cambio de agujas es lo correcto? Parafraseando a Kant, podemos afirmar entonces que las teorías éticas sin intuiciones son ciegas, pues resultan ajenas a la psicología moral humana (teorías para dioses o demonios); pero las intuiciones morales sin teorías son vacías, pues nos guían de forma contradictoria en demasiadas ocasiones.

Así pues, lejos del confortable butacón, filósofos y filósofas llevan a cabo experimentos hipotéticos o reales similares a los de la psicología o la economía. En los primeros, los participantes deben expresar un juicio moral sobre una situación hipotética dada (el problema del tranvía, por ejemplo); en los reales, tienen que tomar una decisión moral, ya sea de forma individual o como producto de la cooperación. Imagínese, por ejemplo, que en el laboratorio de ética le entregan 20 monedas de un euro y tiene que decidir si darle a otra persona, elegida al azar, una moneda, o dos, o tres, o cuatro, o cinco… o todas, o bien puede no darle ninguna; esto es, se queda usted con los 20 euros. A su vez, la persona en cuestión tiene en su mano aceptar la oferta –por ejemplo, usted le ofrece 4 euros– o rechazarla. Ahora bien, si la rechaza ambos se quedan sin nada. ¿Usted cuánto ofrecería? ¿Cuál es su intuición moral en este caso? ¿Cuál sería la oferta más justa?

Experimentos hipotéticos o reales ponen a las personas, pues, frente a su concepción del bien y lo correcto; y las teorías éticas se benefician de ese conocimiento. De vuelta al butacón se puede especular de nuevo sobre principios y consecuencias morales apoyándose en bases más firmes. La ética experimental consigue así elaborar teorías normativas y empíricas a la vez; logra, en otras palabras, ser filosofía y ciencia al mismo tiempo. Démosle la bienvenida.

 

* Fernando Aguiar es investigador del CSIC en el Instituto de Estudios Avanzados (IESA).

A la ‘caza’ de exoplanetas por la sierra almeriense de Los Filabres

cara2Por J.M. Valderrama (CSIC)*

Más allá de los estereotipos que identifican Almería con las playas y el calor, nos encontramos ante una de las provincias geográficamente más heterogéneas de España. En efecto, el conjunto de relieves que la jalonan da lugar a una orografía que históricamente ha complicado las comunicaciones pero que, a la vez, contribuye a enriquecer la variedad paisajística. Una de estas cadenas montañosas es la sierra de Los Filabres, un muro de más de 2.000 metros en el que se encuentra el Centro Astronómico Hispano-Alemán, también conocido como el Observatorio de Calar Alto, financiado conjuntamente por el Instituto Max Planck y el CSIC.

Aquí, en lo alto de la montaña, a salvo de la contaminación lumínica, reina la calma y el frío. Una niebla envuelve a estos telescopios, los más relevantes de la Europa continental. Cuando uno los visita, de la mano del personal del Instituto de Astrofísica de Andalucía del CSIC, una de las primeras cosas que llaman la atención es la transformación que ha sufrido la observación del firmamento desde los tiempos de Galileo. Así, los primeros telescopios refractores (que utilizaban lentes) han sido reemplazados por los reflectores (que utilizan espejos); en Calar Alto los dos más grandes tienen 2,2 y 3,5 metros de diámetro. La razón es la siguiente: para llegar más lejos hacen falta lentes o espejos cada vez más grandes (el espejo de 3,5 metros tiene 60 centímetros de grosor y pesa 12 toneladas) y es más asequible la segunda opción, pues hacer una lente perfecta y gigante resulta técnica y económicamente inasequible.

Calar Alto nevado

Paisaje nevado en la sierra de Filabres, donde se encuentra el Observatorio Astronómico de Calar Alto / Santos Pedraz, IAA (CSIC).

El segundo cambio afecta al observador. No hay un ojo al otro lado de las estrellas, sino detectores que recogen las briznas de luz que nos llegan desde millones de kilómetros. Así, ahora los telescopios captan la radiación emitida por los cuerpos celestes y forman la imagen de los objetos observados. Hay dos tipos de instrumentos: las cámaras, que captan imágenes en distintas longitudes de onda, y los espectrógrafos, que descomponen la luz de los objetos en sus diferentes longitudes de onda, de modo que permiten conocer datos como la gravedad de un planeta, su composición química o la distancia al objeto observado.

Además de resultar más cómodo, hay un motivo esencial para justificar la observación remota: la temperatura en el interior de la cúpula, donde están el telescopio y los instrumentos, debe ser lo más parecida posible a la del exterior, con el fin de evitar cualquier mínima turbulencia y así mejorar la calidad de las observaciones. Esto implica varias cosas, como por ejemplo construir observatorios de color blanco con el fin de reducir la absorción de calor por el día, o eliminar cualquier fuente calorífica (personas, estufas, ordenadores) en el interior de la cúpula. Hay soluciones más radicales, y por eso algunos observatorios cuentan con cúpulas que se abren completamente. El hándicap es el viento y una exposición a los elementos que pueden deteriorar el delicado instrumental.

Todos los detalles se tienen en cuenta para que la estación sea operativa el mayor número de noches posible. Solo ante eventualidades extremas, poco frecuentes, se detienen los telescopios. En Calar Alto se han llegado a registrar temperaturas inferiores a los quince grados bajo cero, por lo que, para hacer frente a las duras condiciones, las instalaciones están conectadas mediante túneles para ir de un lado a otro cuando el espesor de nieve es excesivo (y seguimos en Almería).

Telescopio

Telescopio de 3,5 metros de diámetro de Calar Alto / Santos Pedraz, IAA (CSIC).

La observación astronómica tiene como fin conocer el universo. La búsqueda de exoplanetas (planetas fuera del Sistema Solar) es uno de los proyectos que se llevan a cabo en Calar Alto y alcanzará un impulso importante cuando en 2016 empiece a funcionar el espectrógrafo de alta resolución CARMENES, en cuyo diseño participa el Instituto de Astrofísica de Andalucía. Colateralmente, la tecnología desarrollada en la observación astronómica (potentes mecanismos para mover cúpulas o instrumentos diseñados para captar fotones a miles de años luz) enriquece y facilita nuestra vida cotidiana: ¿quién no tiene un CCD ─un sensor con diminutas células fotoeléctricas que registran la imagen─ en la cámara de su móvil? Pues ese cacharro se concibió inicialmente para capturar la luz de las estrellas.

La niebla va abriendo, dejando un paisaje asombroso y una noche que volverá a ser espectacular aquí arriba.

*J. M. Valderrama trabaja en la Estación Experimental Zonas Áridas del CSIC y escribe en el blog Dando bandazos, en el que entremezcla literatura, ciencia y viajes. Agradecimientos a Héctor Magán y Jorge Iglesias, del Instituto de Astrofísica de Andalucía del CSIC.