Entradas etiquetadas como ‘ciencia’

No hay que temer al lobo: un depredador necesario

xiomaraF PalaciosPor Fernando Palacios y Xiomara Cantera (CSIC)*

Para que un ecosistema funcione es necesario que haya una buena cobertura vegetal de la que se alimenten gamos, ciervos, cabras montesas, corzos o jabalíes. Pero también se requiere la presencia de depredadores naturales que regulen sus poblaciones y eviten que los herbívoros lleguen a esquilmar la flora. Ese es el papel del lobo ibérico –Canis lupus signatus– en los hábitats de la Península Ibérica.

La conservación del lobo es un tema complejo que levanta pasiones a favor y en contra. Hay asociaciones que reivindican medidas para su conservación y también sectores, como el de los ganaderos, que se ven obligados a lidiar con su presencia. Pero, ¿hasta qué punto los lobos les perjudican?

palacios01_1ok

En la actualidad la caza del lobo está permitida en Galicia y el territorio de Castilla y León situado al norte del Duero. / Fernando Palacios.

Analicemos los datos. Según la Consejería de Fomento y Medio Ambiente de Castilla y León, en 2014 se documentaron 940 ataques de lobos al ganado. El acercamiento inusual de estos mamíferos carnívoros a los rebaños de animales domésticos se produce porque en los espacios donde aún sobreviven también hay actividad ganadera y una fuerte presión para aumentar las áreas de pasto. Además existe una gestión forestal que prima la producción de madera, lo que hace que los bosques pierdan productividad primaria (por ejemplo, en los pinares se elimina el  matorral). Así, los ungulados salvajes, especialmente los herbívoros, cada vez escasean más, por lo que el lobo se alimenta de animales domésticos.

Pero también existen áreas sin lobos donde hay exceso de herbívoros salvajes que, al entrar en contacto con el ganado, actúan como vector trasmisor de enfermedades. Según la Junta de Extremadura, en 2015 hubo que sacrificar 7.526 reses por un brote de tuberculosis bovina, cada vez más extendida por el aumento de jabalíes y ciervos en la región. Si se comparan las cifras, ¿hasta qué punto es cierto que los lobos perjudican a los ganaderos? Hay territorios en los que hay tal cantidad de ciervos y cabras montesas que incluso los Parques Nacionales programan batidas de caza para reducir su número. Son lugares en los que ya no quedan lobos que regulen el crecimiento desmedido de estas poblaciones.


El Duero: una frontera para la caza

El Proyecto LOBO propone la elaboración de un censo ciudadano independiente. / Mauricio Antón.

El Proyecto LOBO propone la elaboración de un censo ciudadano independiente. / Mauricio Antón.

Aunque la especie goza del máximo nivel de protección según la normativa europea, en cada comunidad autónoma se aplican normas diferentes para la gestión del lobo. En Madrid y Castilla La Mancha las administraciones no permiten su caza. También en Portugal está estrictamente protegido. Sin embargo, en Galicia y al norte del río Duero en Castilla y León el lobo es una especie cinegética, por lo que, si su estado de conservación es favorable, pueden cazarse ejemplares. La caza se regula a través de cupos que no tienen en cuenta el furtivismo, ni la estructura social de las manadas, ni el número real de ejemplares vivos –Castilla y León estableció un cupo de 143 lobos para 2015-2016–.

Para mantener un ecosistema y las especies que lo pueblan, la caza no debería ser una herramienta de conservación. La gestión tendría que dirigirse a proteger las especies y su equilibrio, lo que pasaría por dejar que creciera una cobertura de vegetación natural que albergara presas salvajes para el lobo. Sin embargo, lo que se está haciendo es convertir al ser humano en el depredador de los grandes herbívoros y también del lobo.

El censo de 2013-2014 de la Junta de Castilla y León señala que se han detectado en esa comunidad 179 grupos de lobos, 152 al norte del Duero y 27 al sur. La Administración calcula que cada grupo está compuesto por 9 miembros, pero según los científicos las manadas en la península raramente llegan a tener 6. Esto hace suponer que los resultados del censo son excesivamente optimistas sobre el aumento de lobos en la última década. Se da también la paradoja de que los encargados de elaborar estos censos son los mismos que establecen los cupos de caza, hecho por el que han surgido voces que denuncian la manipulación de las cifras. Por su parte, el último censo publicado por el Ministerio de Medio Ambiente tampoco recoge el número de individuos. Según el documento, actualmente hay 297 manadas en toda España. Esta cifra y los ataques al ganado justifican para la ministra en funciones, Isabel García Tejerina, retirar la protección al lobo y permitir su caza en todo el territorio.

Un primer paso para proteger al lobo ibérico es conocer el número real de ejemplares existentes. A ese propósito responde la iniciativa Proyecto LOBO que propone la elaboración de un censo independiente con la colaboración de ciudadanos y diferentes actores implicados. El objetivo no es solo contar los ejemplares que habitan nuestras montañas, sino analizar el estado de conservación de los lobos y de los hábitats naturales que aún recorren estos supervivientes de la persecución humana.

 

* Fernando Palacios es investigador del CSIC en el Museo Nacional de Ciencias Naturales (MNCN). Xiomara Cantera trabaja en el área de comunicación del MNCN y dirige la revista NaturalMente. Para saber más, consulta el artículo Lobos para recuperar la biodiversidad’.

¿Qué son los fondos ‘buitre’?

S. MiretE. Outer.J. Mag.Por Juan Margalef Roig, Enrique Outerelo Domínguez y Salvador Miret Artés*

Los hedge funds, popularmente conocidos como fondos ‘buitre’, han acaparado titulares y espacio en los medios de comunicación españoles en los últimos tiempos. Probablemente, los casos más mencionados han sido el de la deuda argentina y el desembarco de estos fondos en el mercado inmobiliario de la Comunidad de Madrid.

Pero, ¿qué son exactamente los hedge funds? Lo primero que cabe decir es que son fondos de inversión que tienen una gestión muy dinámica y agresiva, asumiendo riesgos muy altos. Gestionan grandes cantidades de dinero que proceden de grandes fortunas, fondos de pensiones, de otros fondos de inversión y de pequeños ahorradores. Una de sus líneas de inversión son proyectos desarrollados por pequeñas empresas, con las que adquieren un compromiso de permanencia en el capital durante un cierto tiempo. Sin embargo, son más conocidos por comprar, en el mercado secundario, la deuda de países o corporaciones en crisis con grandes descuentos (hasta el 70%), para después litigar en los tribunales con el objetivo de cobrar la totalidad nominal de los activos que han comprado.

Corralito

La crisis argentina de 2001 no sólo llevó al ‘default’; también fue causante de un ‘coralito’ financiero que provocó el enfado de los pequeños ahorristas. / Barcex, CC-BY-SA, via Wikimedia Commons.

Este es el caso de la deuda argentina. En 2001, el país entró en suspensión de pagos (default) y comenzó a negociar con los tenedores de la deuda –que por aquel entonces era 102.000 millones de dólares– quitas y plazos más relajados para el pago. El 92,4% de estos tenedores aceptaron canjes del 70% (es decir, recibieron voluntariamente la devolución del dinero invertido con un descuento del 70 % del valor nominal de la deuda adquirida) y fechas de vencimiento de cinco años. Sin embargo, algunos bonistas y hedge funds liderados por NML Capital no aceptaron las nuevas condiciones y optaron por litigar. Estos hedge funds habían aprovechado el default para comprar, a un precio mucho más bajo de su valor nominal, deuda soberana argentina a tenedores con necesidad de recuperar rápidamente al menos una pequeña parte de su inversión. Aquí no entraremos a valorar la gestión de un país por los gobernantes de turno.

Catorce años después, en julio de 2015, el juez estadounidense Thomas P. Griesa decidió que todos los bienes del Gobierno argentino en los Estados Unidos podían ser considerados comerciales, con excepción de los militares y diplomáticos, dando vía libre así a que el patrimonio argentino pudiera ser embargado y subastado. De este modo, la sentencia permitió a NML Capital cobrar 832 millones de dólares por deuda argentina que en 2001 le había costado 48,7 millones de dólares. Recientemente, el nuevo gobierno argentino ha llegado a un principio de acuerdo con estos fondos ofreciéndoles un 75% de sus reclamaciones, con una quita mejor que la pactada con otros fondos menos poderosos.

Como ilustra el ejemplo, este tipo de operaciones son de alto riesgo y su resolución puede prolongarse durante varias décadas. Pero también implican ganarse el sobrenombre de ‘buitre’: si este carroñero se come la carne de animales muertos y ataca a presas debilitadas, los hedge funds sacan ventaja de la situación de tenedores de deuda, corporaciones y países en crisis.

Así, en 2013 estos fondos vieron una oportunidad en la crisis española. Ese año, varios de ellos entraron en el mercado inmobiliario de la Comunidad de Madrid a través de diferentes operaciones:

  • Compra de 1860 pisos de la Empresa Municipal de la Vivienda y Suelo de Madrid por 12,5 millones de euros.
  • Compra de 3000 pisos a la Agencia de Vivienda Social de la Comunidad de Madrid (IVIMA), por 200 millones de euros.
  • Compra de viviendas con inquilino. En este caso, al extinguirse el contrato con el antiguo propietario, las renovaciones tenían condiciones más duras que algunos inquilinos no pudieron afrontar.
  • Compra de créditos hipotecarios. Es decir, ante el temor de que los compradores de pisos no pudieran hacerse cargo del pago de sus hipotecas, los bancos decidieron traspasar éstas a los fondos buitre por un valor inferior al de la deuda nominal.

Los fondos apostaron a que el mercado inmobiliario frenaría su tendencia bajista y volvería a crecer; mientras que los vendedores pensaron que existía un alto riesgo de un impago masivo de hipotecas inmobiliarias que llevaría al mercado aún más a la baja. Al menos hasta el momento, podríamos decir que quienes acertaron fueron los primeros, puesto que, de 2013 a 2015, los precios de la vivienda subieron un 20%. De hecho, algunos piensan que los bancos habrían perdido menos dinero suavizando las condiciones de los hipotecados en lugar de vendiendo las hipotecas a los fondos buitre.

 

* Juan Margalef Roig y Salvador Miret Artés son investigadores del CSIC en el Instituto de Física Fundamental. Enrique Outerelo Domínguez es profesor de la Universidad Complutense de Madrid. Los tres son autores de los cuatro volúmenes de la obra Probabilidad y Economía (Sanz y Torres).

La primera misión tripulada a Marte se prepara en Río Tinto

cristina delgado blogPor Cristina Delgado González (CAB)*

Quizá sea The Martian, la película de Ridley Scott, la que ha puesto más en boga, si cabía, el planeta rojo. Pero nadie negará que Marte se escucha en todas partes. Sea como fuere, una futura misión tripulada al planeta vecino está dejando de ser un proyecto ficticio, y Río Tinto, en Huelva, vuelve a ser un análogo marciano donde hacer ensayos para preparar dicha misión.

El proyecto europeo MOONWALK tiene como principal objetivo desarrollar y mejorar las técnicas para que un humano y un robot realicen actividades extravehiculares (EVA) en cooperación. Para ello, se desarrollarán dos campañas: una en Río Tinto y otra bajo el mar en la costa de Marsella, que simula las condiciones de baja gravedad de la superficie lunar. La primera de estas campañas se llevará a cabo durante las dos últimas semanas de abril, en lo que el responsable del Centro de Astrobiología (CAB-CSIC) en MOONWALK, Víctor Parro, considera “la gran maqueta de Marte”.

Paisaje análogo a Marte en Río Tinto, Huelva./Luis Cuesta

Paisaje análogo a Marte en Río Tinto, Huelva / Luis Cuesta

La zona de Río Tinto cuenta con túneles abandonados de la minería similares a los tubos de lava que hay en Marte, lugares donde la hipotética vida marciana estaría protegida de los daños que supone la superficie, como la radiación. Pero explorar este tipo de terrenos puede resultar difícil para un astronauta, que a diferencia de lo que se muestra en la película protagonizada por Matt Damon, lleva un traje muy pesado. Esto implica una serie de limitaciones a la hora de, por ejemplo, subir una cuesta. Sin embargo, un robot pequeño como el que se ha diseñando para MOONWALK sí podría realizar este movimiento. Según el equipo del CAB que trabaja en este proyecto internacional, ésta es una buena oportunidad para consolidar Río Tinto como un lugar de referencia para simulaciones con astronautas y/o robots en el continente europeo.

No solo el paisaje de este enclave onubense es muy marciano: su suelo es también rico en sulfatos y minerales de hierro y azufre. Por ello se aprovechará la campaña para probar otra instrumentación, como el RLS (Raman Laser Spectrometer) que irá en el rover (el vehículo motorizado que se desplaza por la superficie del planeta) de la misión ExoMars 2018 de la ESA, o el instrumento para la detección e identificación de microorganismos y compuestos bioquímicos SOLID (Signs Of LIfe Detector).

Estas campañas ponen a prueba los avances en instrumentación y ciencia. En el caso concreto de MOONWALK, ayudan a identificar los factores que afectan a la comunicación entre astronauta y robot y a optimizar su relación. De esta forma, una misión tripulada a Marte podría traspasar las salas de cine, y Río Tinto es parada obligatoria en ese camino.

*Cristina Delgado González pertenece a la Unidad de Cultura Científica del Centro de Astrobiología (CSIC-INTA).

Agujeros negros: los dragones de las galaxias

M. VillarPor Montserrat Villar (CSIC)*

Érase una vez un dragón que dormitaba en el interior de una gruta, en pleno corazón del reino. Los habitantes de aquel país vivían plácidamente y sin grandes avatares, salvo los propios de una existencia cotidiana. Todos sabían que allí moraba un temible monstruo. Sin embargo, residían despreocupados pues este pasaba los días escondido y tranquilo, sin molestar a nadie. Salvo a quienes entraban en la cueva: estos no regresaban jamás. La bestia entonces despertaba y las consecuencias eran devastadoras.

Muchas galaxias, incluida nuestra Vía Láctea, contienen agujeros negros en sus centros. Son los monstruos de nuestra historia. Los denominamos ‘supermasivos’ por sus masas enormes. Si usamos la de nuestro Sol como unidad, las masas pueden estar en un rango de entre unos pocos millones y hasta 20 mil millones de soles. Habría que juntar todas las estrellas de una galaxia como la Gran Nube de Magallanes para reunir una masa equivalente. Con la asombrosa diferencia de que ocuparían un volumen menor que el del Sistema Solar.

Superviento

Impresión artística de un superviento generado en el entorno de un agujero negro en la galaxia activa NGC 3783. / ESO-M. Kornmesser.

En general, los agujeros negros supermasivos se hallan en estado latente. No sabríamos de su existencia si no fuera porque vemos que las estrellas y el gas en las proximidades del centro galáctico se mueven tan deprisa y en un volumen tan pequeño, que solo un agujero negro puede explicar movimientos tan extremos. Sin embargo, en un 10% de las galaxias estos agujeros negros presentan una actividad frenética. Son las llamadas galaxias activas. En ellas el agujero negro está siendo alimentado; aportes suficientes de material (gas, estrellas) hacen que se active. Como el dragón que dormita tranquilo sin molestar a nadie hasta que entra algún incauto despistado y su furia se desata. En estos casos la actividad del agujero negro puede hacer que el centro de una galaxia brille tanto como decenas, hasta miles de galaxias juntas. Esta luz tan intensa es emitida por material muy caliente cercano al agujero negro, pero situado fuera del horizonte de sucesos, pues nada que cruce este horizonte puede escapar, ni siquiera la luz.

Un descubrimiento de gran importancia realizado hace tan sólo unos 15 años ha mostrado que (dicho de manera simplificada) la masa de las estrellas de una galaxia y la del agujero negro supermasivo se hallan relacionadas, siendo la masa del agujero negro aproximadamente una milésima (0,1%) la de la galaxia. Es decir, cuanta más masa tiene uno, más masa tiene la otra. Como si lo que pesa el dragón de la historia estuviera relacionado con lo que pesan todos los habitantes del reino juntos.

Grafica

La masa del agujero negro supermasivo está íntimamente relacionada con la masa de las estrellas de la galaxia que lo alberga (K. Cordes y S. Brown, STScI).

Esto sugiere que la galaxia y el agujero negro central no se formaron y crecieron de manera independiente, sino que hubo algún mecanismo que los conectaba. Sin embargo, dada la enorme diferencia en masa, la región en la que se siente la gravedad del agujero negro es diminuta en relación a la galaxia entera. Esto puede imaginarse al comparar el tamaño de una moneda de euro con el de una ciudad como Madrid. ¿Qué mecanismos pueden conectar la evolución de algo tan pequeño y la de algo comparativamente gigantesco? Es una cuestión que actualmente causa un acalorado debate en la comunidad científica, puesto que su respuesta tiene implicaciones importantes en cuanto a nuestra comprensión de la formación y la evolución de galaxias.

Un posible mecanismo es el de los llamados ‘supervientos’. Los modelos predicen que con su enorme potencia, la energía liberada en las proximidades del agujero negro activo podría ser capaz de expulsar gran parte del gas en las galaxias en formación. Este ‘superviento’ privaría a las galaxias de buena parte del combustible necesario para formar nuevas estrellas y alimentar el agujero negro. Así, la energía inyectada en el medio circundante regularía simultáneamente el crecimiento del agujero negro y el de la galaxia que lo alberga, que podría así ralentizarse, llegando incluso a detenerse. Según esto, los agujeros negros supermasivos ‘conspiraron’ en los inicios para manipular la formación de las galaxias; algo comparativamente minúsculo consiguió así moldear la evolución de algo gigantesco.

El dragón de la historia no ha medido las consecuencias de su devastadora violencia: ha destruido su entorno causando dramáticos efectos que impiden el crecimiento futuro de la población del reino y ha provocado además su propia muerte por inanición.

¿O no…?

¿Qué ocurrirá si un día, cuando todo parezca inerte y en calma, un aventurero temerario se arriesgue a entrar en la gruta?

¿Volverá a despertar el monstruo?

 

* Montserrat Villar es investigadora en el Centro de Astrobiología (CSIC-INTA) en el grupo de Astrofísica extragaláctica. 

Baade y Zwicky: la extraña pareja que descubrió las estrellas supernovas

autorPor Miguel A. Pérez Torres (CSIC)*

Si el director de cine Gene Saks hubiera decidido hacer una versión de la excelente comedia La extraña pareja (1968) protagonizada por científicos, sin duda habría escogido a Walter Baade en el papel de Félix (Jack Lemmon) y a Fritz Zwicky para el de Óscar (Walter Matthau).

Fritz Zwicky (Bulgaria 1898 – EE.UU. 1974), físico especialista en materia condensada, llegó al Instituto de Tecnología de California (el famoso CalTech) en los años veinte del siglo pasado, procedente de Suiza, donde se crió y cursó estudios universitarios. Era brillante y polifacético, pero su corrosiva y neurótica personalidad, así como su arrogancia sin límites, lo convirtieron en poco más que un bufón para muchos de sus colegas.

Pareja

Walter Baade (arriba) y Fritz Zwicky (abajo).

En una ocasión, en el colmo de la arrogancia, Zwicky llegó a afirmar que él y Galileo eran las dos únicas personas que sabían utilizar correctamente un telescopio. Un ejemplo de su bufonería neurótica estaba relacionado con el fanatismo que profesaba por el deporte. No era raro encontrarlo en el suelo del recibidor del comedor de CalTech haciendo flexiones con un solo brazo, demostrando así su virilidad ante cualquiera que, en su opinión, la hubiera puesto en duda.

Asimismo, era tan agresivo y sus modales tan intimidatorios que incluso su colaborador más cercano, Walter Baade (Alemania 1893 – 1960), el otro protagonista de este artículo, y que tenía una personalidad tranquila, llegó a negarse a que lo dejaran solo con Zwicky entre las cuatro paredes de un despacho. En un más que probable acceso de paranoia, Zwicky llegó a acusar a Baade de ser nazi, lo cual era completamente falso. Y, al menos en una ocasión, Zwicky amenazó con matar a Baade, que trabajaba en el observatorio de Mount Wilson, colina arriba de Caltech, si alguna vez lo veía en el campus de su instituto.

En fin, Zwicky era un científico que la mayoría no querría tener como compañero de despacho, pero cuya brillantez y colaboración con Baade iban a resultar fundamentales para explicar la aparición de unas estrellas extremadamente brillantes, y que habían traído de cabeza a los astrónomos durante décadas.

En marzo de 1934, Baade y Zwicky enviaron dos comunicaciones a la Academia de Ciencias de los Estados Unidos que marcarían un antes y un después en la astrofísica.

En la primera de esas comunicaciones, titulada ‘On Super-novae’, los autores proponían la existencia de un nuevo tipo de estrellas ‘nova’, las ‘super-novas’. Las novas, estrellas que aumentan su brillo enormemente durante periodos típicos de días o semanas, eran conocidas al menos desde el siglo anterior, y quizá por ello habían dejado de llamar la atención de los astrónomos. La aparición de una nova excepcionalmente brillante en la nebulosa de Andrómeda, en 1885, renovó el interés de los científicos por este tipo de astros. Sin embargo, nadie había logrado explicar satisfactoriamente este fenómeno.

En su trabajo, Baade y Zwicky proponían que las supernovas eran un fenómeno general en las nebulosas (en aquella época, el término ‘galaxias’ no estaba todavía asentado). Además, estas supernovas ocurrirían con mucha menor frecuencia que las novas, de ahí que se hubieran descubierto tan pocas.

Baade y Zwicky utilizaron como supernova-patrón el objeto descubierto en 1885 en la galaxia de Andrómeda, y calcularon que su luminosidad máxima debió de ser unas 70 millones de veces la de nuestro sol, compitiendo así con la luminosidad total de una galaxia. Posiblemente, esta colosal luminosidad fue decisiva para que propusieran el nombre de ‘super-novas’.

Supernova 1994D (punto brillante en la parte inferior derecha) captada por el teloscopio Hubble. / NASA-ESA-

Supernova 1994D (punto brillante en la parte inferior derecha) captada por el teloscopio Hubble. / NASA-ESA-

La pareja también estimó que la estrella tuvo que haber perdido una fracción significativa de su masa inicial, incluso varias veces la masa del sol. La conclusión principal del trabajo era que las supernovas representaban la transición de una estrella ordinaria a un objeto con una masa mucho menor. Aunque expresada con ciertas reservas, ya que la presencia de objetos como la supernova de 1885 en Andrómeda era todavía muy escasa, la hipótesis de Baade y Zwicky se vio plenamente confirmada por observaciones y estudios posteriores.

En la segunda comunicación, titulada explícitamente ‘Cosmic Rays From Super-Novae’, Baade y Zwicky sugerían que los rayos cósmicos se producían en las supernovas (¡cuya existencia habían propuesto en la página anterior!) y explicaban satisfactoriamente las observaciones de rayos cósmicos existentes en la época.

Estos resultados habrían bastado, por sí solos, para ganarse una reputación de por vida, como así fue por otra parte. Pero la pareja fue más allá en su segundo trabajo y, “con todas las reservas”, avanzó la hipótesis de que las supernovas representaban la transición de una estrella ordinaria a una estrella de neutrones.

Hay que tener en cuenta que James Chadwick había descubierto el neutrón apenas año y medio antes, en 1932. Baade y Zwicky entendieron que ese nuevo estado de la materia en las estrellas las haría estables, pero quisieron ser especialmente cautos. Solo así también se entiende que separaran sus resultados sobre las supernovas en dos comunicaciones, en lugar de publicarlas como un único artículo.

Son muy pocos los trabajos en astrofísica que, como estos de Baade y Zwicky, presentan tantos conceptos nuevos, incluso revolucionarios, al tiempo que dan con la solución a problemas que habían permanecido largo tiempo sin respuesta satisfactoria alguna. La presentación de estos resultados en dos breves, concisos y muy claros artículos, propició su rápida difusión, no sólo entre los astrofísicos, sino también entre el público en general.

Hoy día, todos los estudiantes de astrofísica aprenden en los libros de texto que la muerte de una estrella masiva da como resultado una supernova, que a su vez deja como remanente una estrella de neutrones (o quizá un agujero negro, como hoy sabemos). También aprenden que las supernovas representan la principal fuente de rayos cósmicos en el universo. Todo esto se lo debemos a los estudios pioneros realizados por Baade y Zwicky en los años 1930. Insisto, a “Baade y Zwicky”, ya que es muy habitual citar solamente a Zwicky como la persona que realizó estas gestas científicas, algo que posiblemente se deba a su peculiar personalidad, que contrastaba con la del tranquilo y caballeroso Baade.

 

* Miguel A. Pérez Torres es investigador del CSIC en el Instituto de Astrofísica de Andalucía.

Mosquitos tigre, eucaliptos, mejillones cebra… ¿Las especies exóticas son siempre perjudiciales?

jorge-casinelloPor Jorge Cassinello (CSIC)*

Periquitos y cotorras argentinas sobrevolando la Casa de Campo de Madrid, mosquitos tigre que se convierten en un problema de salud pública en la costa mediterránea, bosques plagados de eucaliptos… Estos son algunos ejemplos de especies exóticas presentes en España. Una especie exótica o alóctona es aquella que llega a determinado territorio o ecosistema sin utilizar sus propios medios ni la intervención de procesos naturales. Se introduce por acción del ser humano, ya sea de forma intencionada o accidental. Ahora bien, ¿cuándo una especie exótica es invasora?

Hasta hace pocos años el concepto ‘invasor’ se aplicaba a las especies exóticas establecidas y en proceso de expansión; sin embargo, recientemente la Unión Internacional para la Conservación de la Naturaleza estableció que una especie exótica invasora es aquella que causa daños y perjuicios en el ecosistema huésped. Esta es la definición aceptada en la actualidad, y por ello podemos equiparar el término ‘invasor’ con ‘perjudicial’ o ‘dañino’.

Desde un punto de vista evolutivo y ecológico, la presencia de una especie foránea en un ecosistema puede ocasionar importantes alteraciones. Esto se debe a que la especie exótica llega a una cadena trófica establecida evolutivamente y -sea como depredadora, competidora o como nueva fuente de alimento- puede originar cambios en la abundancia, distribución o supervivencia de las especies nativas.

Mosquito tigre capturado en el interior de un vehículo. Foto: app Tigatrapp

Mosquito tigre capturado en el interior de un vehículo. / App Tigatrapp.

¿Son todas las especies de origen exótico invasoras? Evidentemente no. La gran mayoría de las especies introducidas por el ser humano no tienen efectos negativos reconocidos sobre los ecosistemas. Este sería el caso de una buena parte de las plantas ornamentales o de los cultivos de plantas originarias de América que hoy se encuentran muy extendidos en todos los continentes, como el maíz, la patata o el tomate. Sólo unas pocas de las especies exóticas introducidas (en EEUU se estima que entre un 4-19%) han demostrado ser perjudiciales, al desplazar o incluso llevar a la extinción a especies autóctonas. Contamos con ejemplos muy conocidos, como el mejillón cebra y el mosquito tigre, pero también con la caña común o cañabrava, la carpa, el cangrejo americano, entre otros, así como las cabras y gatos domésticos introducidos en islas.

Aunque en muchos casos faltan estudios concluyentes, podemos establecer una serie de criterios para considerar el potencial invasor de una especie exótica.

Pensemos en una especie exótica imaginaria, la cual llega a nuestros lares por acción humana. ¿Qué ha de suceder para que sea considerada invasora? En primer lugar, es esencial que las condiciones climáticas, geográficas y ambientales sean adecuadas para el establecimiento, reproducción y desarrollo de dicha especie. A continuación es muy importante observar el grado de similitud evolutiva entre la especie introducida y las nativas. Si difieren sustancialmente a nivel evolutivo, la especie exótica asentada tiene muchas probabilidades de volverse invasora. Ejemplos paradigmáticos serían las introducciones de depredadores en islas o mamíferos placentados invasores en Australia, como el conejo, el dingo, el búfalo de agua o el dromedario.

Sin embargo, si la especie exótica y las nativas son semejantes evolutivamente existen muchas probabilidades de que la recién llegada ocupe un nicho ecológico acorde con las cadenas tróficas existentes, y en este caso su impacto dependerá de la presencia de la especie nativa. Así, si la especie nativa está presente podría darse competencia por los recursos y por tanto la especie exótica podría ser considerada invasora, como la ardilla gris de las Carolinas desplazando a la ardilla roja o el visón americano haciendo lo propio con el europeo. Pero si la especie nativa está extinta o no presente la exótica podría ocupar su nicho y cubrir un vacío útil para el ecosistema huésped. Un ejemplo sería el caso de las tortugas gigantes de las Seychelles introducidas en la Isla de Mauricio, en donde hace mucho tiempo se extinguieron las tortugas gigantes autóctonas.

ejemplar de arrui

Ejemplar de arrui. / Wikimedia.

Por último, si la especie exótica se establece en un medio alterado por el ser humano puede tener efectos positivos o negativos, en función del papel que juegue en la cadena trófica. Estos casos deben ser estudiados cuidadosamente, pues es probable que haya efectos inesperados en el contexto del cambio climático. Un ejemplo es el del arrui, un ungulado norteafricano emparentado con cabras y ovejas presente en el sureste español desde hace más de 40 años. El arrui se ha adaptado a las condiciones semiáridas de sierras murcianas y andaluzas y, paradójicamente, podría ayudar a mantener la diversidad de pastos silvestres en un escenario de calentamiento global y avance de la desertificación.

Es fundamental establecer con criterios científicos qué especies exóticas son invasoras y cuáles no, porque de lo contrario podemos dedicar ímprobos esfuerzos a erradicar una especie que en realidad no está perjudicando al medio natural.

Si nos atenemos a la definición de especie exótica invasora no podemos negar una realidad: la especie invasora más abundante y que ha colonizado prácticamente todos los rincones del planeta es el Homo sapiens. Así puede considerarse desde que tuvo la capacidad de desplazarse grandes distancias gracias a la creación de medios de transporte, y de establecerse y crecer alterando el medio y generando sus propias fuentes de subsistencia. Sin mediar ya ninguna relación coevolutiva con la mayoría de los ecosistemas huésped, es nuestro deber moral preservarlos y paliar al máximo los efectos negativos que les hemos ocasionado.

 

* Jorge Cassinello Roldán es investigador del CSIC en la Estación Experimental de Zonas Áridas y miembro de la Comisión por la Supervivencia de las Especies de la UICN.

¿Matarías a una persona para salvar a cinco? Ética e intuiciones morales

AutorPor Fernando Aguiar (CSIC)*

Un tranvía corre sin frenos hacia cinco trabajadores que, ajenos a la desgracia que les espera, arreglan unas traviesas. Si nadie lo remedia morirán arrollados. Por fortuna, alguien lo puede remediar, usted, que presencia la escena: basta con que cambie las agujas para desviar el vagón hacía una vía muerta en la que solo hay un trabajador. Es cierto que ese trabajador morirá, pero se salvarán los otros cinco. ¿Cambiaría las agujas sabiendo cuál es el resultado de su decisión?

Si considera que salvar a cinco personas es la mejor opción en este caso, coincidirá usted con la mayoría de la gente: en efecto, el 90% dice que cambiaría las agujas. Sin embargo, imagine que se encuentra ante una situación similar a la anterior, pero ahora en lugar de cambiar las agujas tiene que empujar a una persona muy gorda para que con su gran volumen detenga el tranvía. Esa persona también morirá sin remedio, pero las otras cinco se salvarán. ¿La empujaría? ¿Qué le dictan sus intuiciones morales en este caso?

John Holbo 2

Ilustración: John Holbo

Aunque de nuevo se trata de salvar a cinco personas a costa de una, en esta ocasión solo un 25% de la gente asegura que daría el empujón fatal: no es lo mismo matar que dejar morir; eso es lo que, al parecer, nos dicen nuestras intuiciones morales. ¿Y si el que está en la vía muerta es su padre? ¿Y si es su hijo? ¿Los sacrificaría para salvar a cinco personas? La intuición nos dicta que no tenemos por qué cambiar las agujas. ¿Y si es un niño desconocido? En tal caso, las intuiciones morales de hombres y mujeres son distintas, pues ellos dicen estar dispuestos en mayor medida que ellas a desviar el tranvía.

Las intuiciones morales –la percepción inmediata de que una acción es moralmente correcta o incorrecta– son importantes para entender muchas de nuestras decisiones, convicciones, dilemas y contradicciones. Esas intuiciones a veces son claras y la reflexión las confirma; otras, sin embargo, son confusas, poco fiables y están sesgadas por todo tipo de prejuicios. En cualquier caso, es preciso conocerlas bien, tanto su naturaleza como sus fundamentos, dado que nos sirven de guía para la acción moral. Esa es, precisamente, la tarea de una nueva rama de la filosofía denominada ‘ética experimental’. Ahora bien, ¿‘ética’ y ‘experimental’ no son términos contrapuestos? ¿Cómo puede ser experimental una disciplina que trata sobre el deber ser, sobre cómo debemos comportarnos?

La filosofía se ha considerado ajena a la producción de datos, lo que no significa que haya carecido de interés por ellos y por las ciencias que los generan. De hecho, durante los siglos XIX y XX (cuando la separación entre ciencia y filosofía ya es completa) buena parte de la mejor filosofía se apoyó en datos científicos de todo tipo, sociales y naturales, para reforzar o ilustrar sus teorías. Sin embargo, no era su misión producirlos; antes al contrario, cómodamente sentado en su butacón, el filósofo especulaba sobre los fundamentos de la realidad natural, social o política y sobre la naturaleza de la moral sin mancharse las manos con cuestiones empíricas. Con el surgimiento de la ética experimental, apenas hace diez años, ese panorama cambió por completo: como otras ramas de la filosofía, la ética se ha propuesto ahora generar sus propios datos.

Tranvía

Ilustración: John Holbo

¿Pero qué necesidad tiene la ética de producir datos? ¿Qué busca? Busca intuiciones morales como las del ejemplo del tranvía u otras similares sobre egoísmo, altruismo, virtud, tolerancia, honradez, corrupción, crueldad, generosidad, etc. ¿Devolvería usted una cartera llena de dinero? ¿Llegaría tarde a una importante cita por ayudar a alguien? ¿Renunciaría a un soborno millonario? La ética experimental estudia las intuiciones morales de la gente para conocer su naturaleza y sus límites, propiciando al mismo tiempo que las teorías éticas sean más realistas. Supongamos que ningún ser humano estuviera dispuesto a mover las agujas del tranvía para salvar a cinco personas frente a una, ¿qué sentido tendría que una teoría nos dijera que el cambio de agujas es lo correcto? Parafraseando a Kant, podemos afirmar entonces que las teorías éticas sin intuiciones son ciegas, pues resultan ajenas a la psicología moral humana (teorías para dioses o demonios); pero las intuiciones morales sin teorías son vacías, pues nos guían de forma contradictoria en demasiadas ocasiones.

Así pues, lejos del confortable butacón, filósofos y filósofas llevan a cabo experimentos hipotéticos o reales similares a los de la psicología o la economía. En los primeros, los participantes deben expresar un juicio moral sobre una situación hipotética dada (el problema del tranvía, por ejemplo); en los reales, tienen que tomar una decisión moral, ya sea de forma individual o como producto de la cooperación. Imagínese, por ejemplo, que en el laboratorio de ética le entregan 20 monedas de un euro y tiene que decidir si darle a otra persona, elegida al azar, una moneda, o dos, o tres, o cuatro, o cinco… o todas, o bien puede no darle ninguna; esto es, se queda usted con los 20 euros. A su vez, la persona en cuestión tiene en su mano aceptar la oferta –por ejemplo, usted le ofrece 4 euros– o rechazarla. Ahora bien, si la rechaza ambos se quedan sin nada. ¿Usted cuánto ofrecería? ¿Cuál es su intuición moral en este caso? ¿Cuál sería la oferta más justa?

Experimentos hipotéticos o reales ponen a las personas, pues, frente a su concepción del bien y lo correcto; y las teorías éticas se benefician de ese conocimiento. De vuelta al butacón se puede especular de nuevo sobre principios y consecuencias morales apoyándose en bases más firmes. La ética experimental consigue así elaborar teorías normativas y empíricas a la vez; logra, en otras palabras, ser filosofía y ciencia al mismo tiempo. Démosle la bienvenida.

 

* Fernando Aguiar es investigador del CSIC en el Instituto de Estudios Avanzados (IESA).

El origen del universo: las tres grandes evidencias del Big Bang

AutorPor Alberto Fernández Soto (CSIC)*

Todo cambia: nosotros, otros seres vivos, la geografía de nuestro planeta, etc. El universo también evoluciona, aunque habitualmente lo hace en escalas de tiempo mucho mayores. Existen procesos, como la explosión de una supernova, que podemos observar en tiempo real. Pero además el cosmos cambia como un todo, y hace aproximadamente 13.800 millones de años conoció la mayor transformación que podemos imaginar: surgió de repente, de modo que la materia, la energía, e incluso el espacio y el tiempo aparecieron espontáneamente a partir de la nada en lo que hoy llamamos la ‘Gran Explosión.

Esta es una idea difícil de digerir, y como tal requiere evidencias muy sólidas que la apoyen. Tres son las grandes pruebas en que se basa:

  1. El universo se expande. Edwin Hubble observó hacia 1925 que las galaxias se alejan unas de otras a velocidades proporcionales a la distancia entre ellas. Georges Lemâitre había probado anteriormente que un universo en expansión representaba una solución válida de las ecuaciones de Einstein, aunque éste se había mostrado reticente (sus ecuaciones son correctas, pero su física es abominable, cuentan que le dijo). Si el cosmos se encuentra en expansión es fácil imaginar que en el pasado ocupaba un volumen mucho menor y, en el límite, un volumen nulo. Tal instante, en el que la temperatura y la densidad serían extremadamente altas, es lo que llamamos ‘Gran Explosión’ o ‘Big Bang’.
  1. La composición del universo es tres cuartos de hidrógeno y un cuarto de helio, los dos elementos más ligeros. Todo el resto de la tabla periódica, incluyendo los elementos que componen la mayor parte de nuestros cuerpos y nuestro planeta (silicio, aluminio, níquel, hierro, carbono, oxígeno, fósforo, nitrógeno, azufre…), representa aproximadamente el 2% de la masa total. Cuando hacia 1950 algunos físicos (entre ellos Fred Hoyle, William Fowler y el matrimonio formado por Geoff y Margaret Burbidge) entendieron por primera vez las ecuaciones que regían las reacciones nucleares en las estrellas, probaron que todos esos átomos ‘pesados’ habían nacido en los núcleos estelares. George Gamow, Ralph Alpher y Robert Herman aplicaron las mismas ecuaciones a la ‘sopa’ de partículas elementales que debería haber existido en los primeros instantes del universo, teniendo en cuenta su rápido proceso de enfriamiento. Dedujeron que, aproximadamente tres minutos después del instante inicial, la temperatura habría bajado lo suficiente como para frenar cualquier reacción nuclear, dejando un universo con las cantidades observadas de hidrógeno y helio.

    Arno Penzias y Robert Wilson en la antena de Holmdel (Bell Labs, Nueva Jersey) con la que descubrieron la radiación de fondo de microondas. / NASA.

    Arno Penzias y Robert Wilson en la antena de Holmdel (Bell Labs, Nueva Jersey) con la que descubrieron la radiación de fondo de microondas. / NASA.

  1. Si el universo nació en ese estado indescriptiblemente caliente y se ha ido enfriando, ¿cuál será su temperatura actual? Eso se preguntaban Robert Dicke, Jim Peebles, Peter Roll y David Wilkinson en Princeton a mediados de los sesenta. Antes de completar su antena para intentar medir esa temperatura, supieron por un colega que dos astrónomos de los cercanos laboratorios Bell, que utilizaban una gran antena de comunicaciones para medir la emisión de la Vía Láctea, detectaban un ruido de fondo que no conseguían eliminar. Arno Penzias y Robert Wilson habían descubierto, sin saberlo, la radiación de microondas causada por la temperatura de fondo2,7 grados Kelvin (aproximadamente menos 270 grados)– que constituye el eco actual de la Gran Explosión.

Otros resultados recientes, como la medida de la tasa de expansión del universo a partir de observaciones de supernovas (1998) o la detección de escalas ‘fósiles’ características en el agrupamiento de galaxias (2005), han permitido estimar con precisión los parámetros del modelo. Así, la edad del universo es 13.800 millones de años (con una precisión menor del 1%).

La evolución de la estructura del universo según una simulación por ordenador, en escalas de tiempo que cubren desde hace 12.800 millones de años (línea superior) al presente (línea inferior), y escalas de tamaño que van desde 325 (columna izquierda) a 50 millones de años-luz (columna derecha). / Millennium-II Simulation: M. Boylan-Kolchin et al. (Max Planck Institute for Astrophysics), Volker Springel (Heidelberg Institute for Theoretical Studies).

La evolución de la estructura del universo según una simulación por ordenador, en escalas de tiempo que cubren desde hace 12.800 millones de años (línea superior) al presente (línea inferior), y escalas de tamaño que van desde 325 (columna izquierda) a 50 millones de años-luz (columna derecha). / Millennium-II Simulation: M. Boylan-Kolchin et al. (Max Planck Institute for Astrophysics), Volker Springel (Heidelberg Institute for Theoretical Studies).

Eso sí, menos de un 5% del contenido del cosmos es la materia que estamos acostumbrados a ver. Existe otro tipo de materia del que hay una cantidad cuatro veces mayor que de materia normal –sólo notamos su efecto gravitatorio, y la llamamos ‘materia oscura–. Además una nueva componente, que llamamos ‘energía oscura a falta de un nombre mejor, representa casi un 75% del contenido del cosmos. ¿Su propiedad principal? Que genera una presión que se opone a la gravedad haciendo que el universo se encuentre en un proceso de expansión desbocada.

Hace 10.000 millones de años se formó nuestra galaxia, y nuestro sistema solar apareció solamente unos 5.000 millones de años atrás. En uno de sus planetas aparecieron hace casi 4.000 millones de años los primeros seres vivos: entes capaces de almacenar información genética, reproducirse y evolucionar. Tuvieron que pasar casi todos esos años para que, prácticamente ayer, apareciera una especie de primate capaz de observar el mundo a su alrededor, hacerse preguntas, y almacenar información de un nuevo modo: el instinto, el habla, la escritura, la cultura, la ciencia…

La cosmología observacional ha conseguido hoy responder a muchas preguntas que hace poco más de un siglo eran absolutamente inatacables para la física. No obstante un gran número de nuevos problemas se han abierto: ¿Qué es la materia oscura? ¿Cuál es la naturaleza de la energía oscura y cómo provoca la expansión? ¿Qué produjo la asimetría inicial entre materia y antimateria? ¿Tuvo el universo temprano una fase inflacionaria de crecimiento acelerado? Multitud de programas observacionales y esfuerzos teóricos y computacionales se dedican a intentar resolver estas cuestiones. Esperamos que al menos algunas de ellas tengan respuesta en los próximos años.

 

* Alberto Fernández Soto investiga en el Instituto de Física de Cantabria (CSIC-UC) y en la Unidad Asociada Observatori Astronòmic (UV-IFCA). Junto con Carlos Briones y José María Bermúdez de Castro, es autor de Orígenes: El universo, la vida, los humanos (Crítica).

El experimento físico más hermoso de todos los tiempos: la doble rendija

Por Mar Gulis (CSIC)

En 2003 la revista Physics World preguntó a sus lectores cuál era en su opinión el experimento más bello de la historia de la física. Ganó el célebre experimento de la doble rendija, una prueba diseñada en 1801 para probar la naturaleza ondulatoria de la luz que no ha dejado de repetirse, en diversos formatos y con distintos objetivos, hasta la actualidad.

Láser difractado usando rendija doble. Foto tomada en el laboratorio de óptica de la facultad de ciencias de la UNAM. / Lienzocian (CC-BY-SA)

Láser difractado usando rendija doble. Foto tomada en el laboratorio de óptica de la facultad de ciencias de la UNAM. / Lienzocian (CC-BY-SA)

La fascinación que sigue produciendo este experimento tiene que ver con que, como dijo el físico Richard Feynmann (1918-1988), contiene en sí mismo el corazón y todo el misterio de la física cuántica, la disciplina que estudia el comportamiento de la materia a escala microscópica.

En el mundo cuántico –el de las partículas subatómicas como los electrones– las ‘cosas’ actúan de una forma muy distinta a como sucede en la escala macroscópica, en la que nos movemos los seres humanos. El experimento de la doble rendija pone de manifiesto dos características desconcertantes de ese mundo. La primera es que, a escala micro, los objetos físicos tienen una naturaleza dual: según las circunstancias, pueden comportarse como un conjunto de partículas o como una onda. Y la segunda consiste en que el hecho de observarlos hace que actúen de una manera o de otra.

Para entender algo más del mundo cuántico, vamos a presentar una formulación ideal del experimento prescindiendo de los detalles técnicos.

Situémonos primero en la escala macro, en nuestro mundo. Vamos a lanzar, una a una y en distintas direcciones, miles de canicas contra una placa atravesada por dos finas rendijas verticales. En otra placa más alejada vamos a recoger el impacto de las canicas. ¿Qué ‘dibujo’ habrá producido este impacto?

La respuesta es: dos franjas verticales, correspondientes a las canicas que han logrado atravesar la placa anterior a través de las ranuras.

Imprimir

Ahora, introduzcamos todos los elementos del experimento en una piscina llena de agua. Desde el mismo punto desde el que hemos lanzado las canicas comenzaremos a generar olas. Una vez que las olas atraviesen las dos ranuras y lleguen a la última placa, ¿dónde impactarán con más intensidad? ¿Qué ‘dibujo’ provocará ese impacto?

La respuesta es: una serie de franjas verticales de diferente intensidad que los físicos llaman “patrón de interferencia”. Este dibujo se produce porque el oleaje inicial, como cualquier onda, se difracta al atravesar las ranuras, dando lugar a dos oleajes que interfieren entre sí. En algunos puntos las olas se potencian y en otros se anulan, lo que provoca un impacto con desigual intensidad sobre la última placa.

Ondas

Pues bien, descendamos ahora al mundo cuántico y, en lugar de canicas, lancemos electrones uno a uno a través de la doble ranura. ¿Qué se ‘dibujará’ en la segunda placa? Con la lógica que utilizamos en el mundo macro, lo esperable es que el electrón, que es una partícula, impacte igual que una canica y dibuje dos franjas verticales.

Sin embargo, el resultado que obtenemos es… ¡un “patrón de interferencia”!

 

Dualidad onda-partícula

¿Cómo se entiende todo esto? En el libro Mecánica cuántica (CSIC-Catarata), el investigador del CSIC Salvador Miret ofrece algunas explicaciones.

La interpretación estándar nos dice que el electrón se lanza y se recoge como una partícula, pero se propaga como una onda. Es decir, que durante su recorrido el electrón está distribuido o superpuesto en toda el área que ocupa su onda, por lo que atraviesa las dos rendijas a la vez e interfiere consigo mismo hasta impactar contra la segunda placa. En ese momento, como consecuencia del impacto, el electrón vuelve adoptar la naturaleza de partícula –en términos más precisos diríamos que colapsa su función de onda– situándose en uno de los múltiples puntos atravesados por la onda. Al comenzar el experimento los electrones se distribuirán por la segunda placa de una forma aparentemente aleatoria, pero al incrementar el número de impactos veremos cómo va formándose el “patrón de interferencia”. Es decir, que la posibilidad de impactar en uno u otro punto está determinada por la onda. En este vídeo puede verse cómo se reproduce un patrón de interferencia en tiempo real, aunque no con electrones sino con moléculas de ftalocinanina:

Interpretaciones de la mecánica cuántica más recientes, como la propuesta por David Bohm (1917-1992), nos dirían que el electrón sigue una trayectoria (no se superpone en varios sitios a la vez) pero que esta está guiada por una onda. En este modelo las ondas son como corrientes de ríos que ‘transportan’ a las partículas: las primeras trazan los numerosos caminos que pueden seguir las segundas pero cada partícula recorre solo uno de ellos. En cualquier caso, esta interpretación no cuestiona la naturaleza dual del mundo cuántico: no podemos considerar las partículas como independientes de su onda.

 

La importancia del observador

Sin embargo, esta es solo una de las aportaciones de nuestro experimento. ¿Qué pasa cuando colocamos un detector para averiguar por qué rendija pasa nuestro electrón?

Pues que el “patrón de interferencia” desaparece y los electrones impactan en la segunda placa como si fuesen canicas. Es decir, que al tratar de observar el sistema, hemos actuado sobre él, obligando a nuestro electrón a comportarse como una partícula. Los fotones que hemos enviado para detectarlo han interaccionado con él y alterado el resultado del experimento.

Evidencias como estas llevaron a Niels Bohr (1885-1962), uno de los ‘padres’ de la mecánica cuántica, a decir, en los años 20 del siglo pasado, que ya no somos meramente observadores de lo que medimos sino también actores. De repente, una ciencia dura como la física comenzaba a cuestionar el paradigma de la objetividad: ¿podemos conocer la realidad sin interferir en ella y sin que ella interfiera en nosotros?

La ortodoxia cuántica, de la que Bohr fue uno de los principales paladines, plantea que la presencia del observador introduce una incertidumbre insoslayable. De acuerdo con Werner Heisenberg (1901-1976) y su principio de incertidumbre, es imposible conocer al mismo tiempo todas las propiedades de nuestra partícula porque, al observar una, estamos alterando el resto. Al querer conocer la posición exacta de un electrón, por ejemplo, su velocidad queda muy indeterminada. Por eso, desde este punto de vista no podemos ir más allá de calcular las potencialidades que nos ofrece su denominada función de onda.

Sin embargo, en los últimos años, la física no ha dejado de buscar formas de medición débiles, que no alteren el sistema observado, y de proponer modelos abiertos, que integran en su formulación al observador. El objetivo: precisar qué hacen las partículas cuando no las observamos… Si realmente estas propuestas llegan a buen puerto es posible que, como afirma Miret, vivamos una auténtica revolución de la mecánica cuántica. De todas formas, parece difícil que cualquiera de los nuevos planteamientos pueda dejar completamente de lado al observador, aunque solo sea para tratar de neutralizar sus efectos sobre el mundo observado.

Envases activos que cuidan los alimentos y el medioambiente

Por Mar Gulis (CSIC)

¿Cuántas veces has abierto un paquete de cacahuetes y estaban rancios? ¿Cuántas veces te has encontrado el pan de molde enmohecido cuando ibas a prepararte un sándwich? Ambos productos tienen en común que se comercializan envasados en plástico, un material que permite el paso de sustancias de bajo peso molecular, como el oxígeno o el vapor de agua, responsables de acelerar procesos oxidativos (el enranciamiento de grasas en el caso de frutos secos) y de crecimiento de microorganismos alterantes (como los mohos en el pan).

Para no tener estas sorpresas desagradables cuando el hambre aprieta, la ciencia y tecnología de los alimentos aportan una solución: los envases activos. En lugar de los recipientes tradicionales que solo sirven de contenedor y de barrera ante agentes externos, “estos envases además ceden o absorben sustancias, modificando la composición de gases del interior y estableciendo así una atmósfera protectora que mantiene los alimentos en buen estado durante más tiempo”, explica la investigadora del Instituto de Agroquímica y Tecnología de Alimentos (IATA) del CSIC Amparo López.

Ensalada empaquetada en un envase activo/Wikipedia

Ensalada empaquetada en un envase activo/Wikipedia

Una visita al supermercado es suficiente para encontrar este tipo de recipientes cada vez más utilizados en la industria alimentaria. Por ejemplo, la carne y algunas marcas de pasta fresca se venden en envases absorbentes de oxígeno para evitar que cambien de color y sabor. Si nos trasladamos a la sección de frutería, encontraremos envases capaces de ‘atrapar’ etileno, el gas que producen frutas y verduras en el proceso de maduración. Además, todos los vegetales no ‘respiran’ al mismo ritmo: algunos van rápido como el brócoli, y otros lentamente como las patatas. Por eso también estos embalajes tienen distintas concentraciones de las sustancias que regulan la presencia de etileno. Todo para que nos comamos los melocotones o judías verdes del interior en su punto.

Las gotitas que a veces encontramos pegadas a los envases de frutas y verduras se eliminan con materiales desecantes como gel de sílice o arcillas naturales, evitando así el crecimiento de mohos, levaduras y bacterias.

En algunos casos los reactivos o compuestos químicos implicados en la absorción de gases o agua se incluyen en una etiqueta situada en la superficie interna del paquete. En otros, se introducen dentro del envase en pequeñas bolsas fabricadas con materiales permeables. Otra posibilidad es incorporarlos formando parte del material de embalaje.

A pesar de sus ventajas, los envases activos siguen arrastrando los mismos inconvenientes que los convencionales, ya que están fabricados con polímeros sintéticos no biodegradables.  De ahí que se esté investigando con biopolímeros, polímeros derivados de recursos naturales renovables o biodegradables, como alternativa a los plásticos procedentes del petróleo.

En el IATA las investigadoras Lorena Castro y María José Fabra trabajan en el desarrollo de envases activos biodegradables con antimicrobianos naturales. Estos nuevos envases fabricados con biopolímeros incorporan aceites esenciales (romero, orégano, canela) o nanopartículas metálicas que se pueden utilizar en envases alimentarios, como las de plata y zinc. Ambos tipos de sustancias naturales tienen un efecto antimicrobiano, con lo cual se consigue conservar los alimentos respetando el medioambiente. Además, la estructura de los biopolímeros favorece que el compuesto activo antimicrobiano sea liberado de manera gradual dentro del envase. Así se mantiene una concentración adecuada en la superficie del alimento, donde generalmente comienzan a aparecer los microorganismos alterantes, y se alarga su vida útil.

“Trabajamos con alimentos que se consumen en fresco, como la fruta y la verdura cortada. El objetivo es evitar añadir conservantes para que permanezcan en buen estado, y que el propio envase cumpla esa función preservadora”, comentan las científicas del CSIC. Estos envases aún están en fase de ensayo. El siguiente paso es obtener la tecnología para hacer un desarrollo comercial.