Entradas etiquetadas como ‘ciencia’

¿En qué se diferencia un robot de otros tipos de máquinas?

AutoraPor Elena García Armada (CSIC)*

En el año 2000, el CSIC llevó a la feria Aula un robot llamado SILO4, un pequeño cuadrúpedo rojo y del tamaño de una mesa rinconera diseñado en el Instituto de Automática Industrial –hoy, Centro de Automática y Robótica (CSIC-UPM)–. La principal función de SILO4 era la de caminar: eso que cualquier animal hace de forma natural a nosotros, nos había costado tres tesis doctorales, la mía entre ellas, y dos proyectos de investigación.

Entre las muchas visitas que atendimos, una de ellas fue la de una niña rubita de unos siete años. Cuando nos preguntó “¿Esto qué es?”, el compañero que había hecho el diseño mecánico y supervisado la fabricación del SILO4, con la cabeza alta y el pecho hinchado, contestó: “Es un robot”. La niña reflejó una mezcla de sorpresa y curiosidad en su rostro. Tras una pausa de pocos segundos, volvió a preguntar: “¿Y qué sabe hacer?”. Mi compañero volvió a inflar el pecho, alzó la cabeza y, muy satisfecho, respondió: “Este robot sabe andar”. Tras otra pausa, la niña volvió a la carga: “¿Y qué más sabe hacer?”. Mi compañero se desinfló ligeramente, arrugó un poco el ceño y dijo: “No hace nada más, caminar ya es bastante para un robot”. La expresión de decepción de la niña precedió a su fulminante conclusión, que no tardó en expresar con total desinhibición: “Pues vaya cosa. Mi muñeca Pili anda y además hace pis”. Dio media vuelta y se marchó, muy orgullosa de su muñeca y bastante decepcionada por esa mesa roja andante que se hacía llamar robot y ni siquiera era capaz de hacer pis.

elena+silo4baja

Elena García Armada (en la imagen) dedicó su tesis a hacer que SILO4 caminara.

Siguiendo el razonamiento de la niña, podríamos preguntarnos qué tienen de especial los robots si otras máquinas, mecanismos o muñecos aparentemente pueden realizar más funciones que ellos. ¿Qué es, por ejemplo, lo que distinguía a Pili y otras muñecas andantes de SILO4? Pues, a diferencia de lo que creía la protagonista de nuestra anécdota, era precisamente la capacidad de caminar la que marcaba esa diferencia. Pili movía sus piernas rígidas de forma cíclica y mecánica, sin prestar atención al suelo o al entorno que la rodeaba, y por tanto se caía a la menor perturbación en el camino, o a veces sin ella, y seguía moviendo las piernecitas mientras se quedaba tendida en el suelo, sin tener conocimiento de lo sucedido. En cambio, SILO4 tenía tres articulaciones en cada pata que le permitían adaptarse al terreno; además, era capaz de asegurarse de que la postura elegida y los apoyos seleccionados eran estables y le conducían a su destino.

SILO4 estaba dotado del trinomio percepción-decisión-acción, es decir, percibía información del entorno y de sí mismo y la utilizaba en un proceso de razonamiento más o menos sofisticado para ejecutar una acción: el próximo movimiento. De esta forma, tenía la capacidad de realizar de manera autónoma una operación antes reservada a las personas, y esta es precisamente la característica que distingue a los robots de otras máquinas.

Podemos observar este comportamiento en otros robots integrados en nuestra vida cotidiana, como los robots cortacésped o de limpieza. Estos últimos, por ejemplo, se diferencian de una aspiradora tradicional porque limpian sin intervención humana, evitando obstáculos, adaptándose al grado de suciedad y asegurando la higiene completa.

La autonomía de los robots se debe a su condición programable. Es un programa informático o electrónico lo que hace posible que el robot tome decisiones. Sin embargo, hay que tener en cuenta que el robot únicamente podrá tomar decisiones que hayan sido programadas, a partir de estímulos que sea capaz de percibir (a través de sus sensores) y sobre aquellas acciones que pueda realizar (gracias a su diseño mecánico). Por eso, el programa, el sistema de percepción y el diseño constituyen, al mismo tiempo, las capacidades y los límites del robot. No puede tomar una decisión que no haya sido programada, no puede ver su entorno si no tiene cámaras de visión artificial y no puede manipular objetos, si no tiene manos, entre otros ejemplos. No puede hacer pis si no se ha diseñado para ese fin.

 

* Elena García Armada es investigadora en el  Centro de Automática y Robótica (CSIC-UPM) y autora del libro de divulgación Robots (CSIC-Catarata).

¿Cuál es la relación entre el cáncer y la carne roja o procesada? Algunas explicaciones sobre la polémica

AutoraPor Begoña Olmedilla Alonso (CSIC) *

A finales de octubre del pasado 2015 todos los medios de comunicación se hacían eco de las conclusiones de un  informe de la Agencia para la Investigación del Cáncer, integrada en la Organización Mundial de la Salud (OMS), en el que se clasificaba el consumo de carnes rojas como “probablemente cancerígeno para los seres humanos” y el de carnes procesadas como “cancerígeno para los humanos”. Ante la gran alarma social que esta noticia generó, el organismo emitió una nota de prensa aconsejando disminuir el consumo de estos tipos de carne para reducir el riesgo de cáncer. La nota también recordaba que, hace más de una década, la organización ya se había pronunciado en favor de un consumo moderado de carne procesada, debido a que su elevada ingesta se asociaba con un mayor riesgo en diversos tipos de cánceres. Además, la OMS añadía que actualmente se dispone de una mayor cantidad de pruebas, principalmente en relación con el cáncer colorrectal.

Embutidos

Según AECOSAN, la población adulta española consume 56 gramos de carne procesada por persona y por día. / mpellegr (flickr).

El informe incluía datos de un estudio que informaba sobre un aumento del 17% en el riesgo de cáncer por cada 100 gramos de carne roja consumidos al día y del 18% por cada 50 gramos de carne procesada. Probablemente las personas que hayan leído estos porcentajes se hayan alarmado con cierta razón y hayan dudado sobre qué hacer para evitar esos riesgos. Por ello, es conveniente echar un vistazo a los tipos de carne que se han estudiado en el informe del IARC y en qué cantidades las consumimos en España.

Si hablamos de tipos de carne, dentro del grupo de carnes rojas se analizó la carne de músculo de mamíferos sin procesar (como la carne de vaca, ternera, cerdo, cordero, caballo o cabra), incluyendo la carne picada o congelada, pero se dejó fuera la carne de aves. En cuanto a la carne procesada, se consideró la que ha sido transformada por salazón, curado, fermentación, ahumado u otros procesos con objeto de aumentar el sabor o mejorar su conservación.

Vamos ahora con las cantidades que comemos en nuestro país. Según datos publicados por la Agencia Española de Consumo Seguridad Alimentaria y Nutrición (AECOSAN), la población adulta española consume 164 gramos de carne y productos cárnicos por persona y por día. Si de estos eliminamos la carne de ave (la más consumida en España), la ingesta es de 116 gramos por persona al día (g/p/d), de los cuales aproximadamente 65 son de carnes rojas y 56 de carnes procesadas. Como se puede observar, es un consumo bastante bajo si lo comparamos con cantidades mencionadas por el IARC en su informe, que considera consumo medio de carne roja 50-100 g/p/d y consumo elevado, más de 200 g/p/d.

Desde el punto de vista de la alimentación, la carne es un elemento fundamental de la dieta ya que concentra y proporciona un gran número de nutrientes de alto valor biológico fácilmente absorbibles, como las proteínas, el hierro, el zinc o algunas vitaminas del grupo B. No obstante, también contiene, como cualquier otro alimento, algunos componentes presentes de forma natural (como la grasa saturada) o que se forman durante su cocinado que en cantidades inadecuadas pueden tener efectos negativos para la salud.  Por tanto, es importante considerar cuánto se consume y también cómo se consume. El cocinado mejora la digestibilidad y la palatabilidad, pero dependiendo del método de preparación de los alimentos también puede provocar la formación de compuestos cancerígenos, como hidrocarburos aromáticos policíclicos (HAP), en mayor o menor medida.

BuBBy_via Wikimedia Commons

Los procedimientos que implican contacto directo con la llama o con una superficie caliente están entre los que más elementos cancerígenos provocan. / BuBBy, via Wikimedia Commons.

Entonces, ¿qué forma de cocinar o preparar la carne provoca más elementos cancerígenos? De acuerdo con el informe del IARC, estos son los procedimientos que conllevan temperaturas por encima de 150 ºC, los que utilizan contacto directo con la llama o con superficies calientes y los que implican largos periodos de tiempo de cocinado. En este sentido, conviene tener en cuenta que en España se utiliza mucho la fritura, que produce menor cantidad de componentes cancerígenos que por ejemplo la barbacoa, ya que en la fritura no hay contacto directo con llama o superficie caliente. Además, no hay que olvidar que los productos cancerígenos no sólo se forman a partir de carnes rojas y procesadas, sino que también se producen al cocinar carne de aves o de pescados. Por otra parte, hay compuestos cancerígenos como las nitrosaminas que se forman a partir de nitratos y nitritos, elementos empleados con regularidad como aditivos en los productos cárnicos por su actividad antimicrobiana, pero que también se encuentran por ejemplo en las hortalizas.

Por ello, hay que buscar el equilibrio en la ingesta de los diversos tipos de alimentos que conforman la dieta habitual, y, muy importante, tener en cuenta que el riesgo de padecer o no cáncer no está determinado por un único factor.  En el caso de los factores dietéticos, hay que considerar cada alimento en conjunto con el resto de alimentos que componen la dieta.

En España, la AECOSAN alertó a la prudencia tras hacerse público el informe de OMS, indicando que el consumo de carne debe ser moderado, de no más de dos veces por semana. También, nos recordó los beneficios de una dieta variada, moderada y equilibrada como la mediterránea, rica en frutas, verduras, aceite de oliva, legumbres y pescado, los cuales están evidenciados científicamente, y constituyen la base de las recomendaciones nutricionales de nuestro país. Finalmente, hay que recordar que casi el 50% de los  cánceres más frecuentes se puede prevenir mediante unos hábitos dietéticos y de estilo de vida saludables.

 

* Begoña Olmedilla Alonso es investigadora del Instituto de Ciencia y Tecnología de la Alimentos y Nutrición (ICTAN) del CSIC.

¿Facilita la falta de sueño la demencia?

 AutorPor Jesús Ávila (CSIC)*

“Tengo falta de sueño”. ¿Cuántos lunes llegas a clase o al trabajo repitiéndote esta frase con malestar? Generalmente cuando utilizamos la expresión ‘falta de sueño’ queremos indicar que no hemos dormido lo suficiente y nos sentimos cansados.

Gracias a numerosos estudios e investigaciones, sabemos que tenemos un ritmo circadiano por el que adoptamos hábitos como comer a determinadas horas, desarrollar actividades sociales o profesionales en otras y dedicar otras más a descansar y dormir. Si el descanso es insuficiente o no es reparador, acusamos esa ‘falta de sueño’.

old-peoples-home-63615_960_720

Los datos sugieren que no dormir suficiente puede ser un factor de riesgo para padecer demencia.

También sabemos que el sueño es un proceso que posee varias fases; en alguna de ellas tenemos movimientos oculares (REM) y en otras, no (NREM). En el primer caso (REM) es cuando, además de dormir, soñamos, mientras que en la otra fase solo dormimos. Sin embargo, en ambas existe una actividad neuronal diferente de la que tenemos cuando estamos despiertos, y que es indispensable para la consolidación de la memoria episódica en zonas de la corteza cerebral, pues refuerza algunas sinapsis (el proceso por el que las neuronas se ‘comunican’ entre sí, transformando una señal eléctrica en otra química). Esta sería una de las evidencias de los efectos positivos del sueño.

Otra de las funciones del sueño es la eliminación de metabólitos o sustancias tóxicas para el metabolismo cerebral, al producirse un intercambio entre el líquido intersticial del cerebro (donde pueden acumularse dichas sustancias tóxicas en la vigilia) y el líquido cefalorraquídeo que, de algún modo, puede considerarse como el basurero del cerebro. También se ha comprobado que durante el sueño se activan algunas zonas cerebrales, como el hipotálamo, el tálamo (fundamentalmente en el sueño REM) o la corteza cerebral. Por ejemplo, los daños en el hipotálamo anterior dan lugar a insomnio, mientras que en el hipotálamo posterior las lesiones pueden favorecer el sueño. Esto indica al menos ciertas correlaciones entre la actividad cerebral y un correcto descanso o un déficit del mismo.

Un estudio reciente ha indicado que la falta de sueño, o un sueño fragmentado, puede ser un factor de riesgo para la enfermedad de Alzheimer o puede desarrollar psicosis en individuos dementes.

En el proceso que relaciona la pérdida de sueño con la aparición de enfermedades neurodegenerativas se observan defectos como la falta de eliminación del péptido amiloide, que se realiza durante el sueño; por el contrario, su acumulación provoca una especie de ‘atasco’ en el tráfico axonal en las neuronas enfermas. Asimismo se producen cambios en el metabolismo de la proteína tau, relacionada con la enfermedad de Alzheimer, y aumentan las posibilidades de daños en la barrera hematoencefálica. Situada entre los vasos sanguíneos y el sistema nervioso central, esta barrera de células impide la entrada de sustancias tóxicas y permite el acceso de nutrientes y oxígeno. Es decir, sin ella muchas sustancias nocivas llegarían al cerebro y alterarían su funcionamiento.

Todos estos datos sugieren que no dormir lo suficiente puede ser un factor de riesgo para padecer demencia.

 

*Jesús Ávila es investigador del CSIC en el Centro de Biología Molcular “Severo Ochoa”, del que fue su director, y autor del libro La demencia (CSIC-Catarata).

No hay que temer al lobo: un depredador necesario

xiomaraF PalaciosPor Fernando Palacios y Xiomara Cantera (CSIC)*

Para que un ecosistema funcione es necesario que haya una buena cobertura vegetal de la que se alimenten gamos, ciervos, cabras montesas, corzos o jabalíes. Pero también se requiere la presencia de depredadores naturales que regulen sus poblaciones y eviten que los herbívoros lleguen a esquilmar la flora. Ese es el papel del lobo ibérico –Canis lupus signatus– en los hábitats de la Península Ibérica.

La conservación del lobo es un tema complejo que levanta pasiones a favor y en contra. Hay asociaciones que reivindican medidas para su conservación y también sectores, como el de los ganaderos, que se ven obligados a lidiar con su presencia. Pero, ¿hasta qué punto los lobos les perjudican?

palacios01_1ok

En la actualidad la caza del lobo está permitida en Galicia y el territorio de Castilla y León situado al norte del Duero. / Fernando Palacios.

Analicemos los datos. Según la Consejería de Fomento y Medio Ambiente de Castilla y León, en 2014 se documentaron 940 ataques de lobos al ganado. El acercamiento inusual de estos mamíferos carnívoros a los rebaños de animales domésticos se produce porque en los espacios donde aún sobreviven también hay actividad ganadera y una fuerte presión para aumentar las áreas de pasto. Además existe una gestión forestal que prima la producción de madera, lo que hace que los bosques pierdan productividad primaria (por ejemplo, en los pinares se elimina el  matorral). Así, los ungulados salvajes, especialmente los herbívoros, cada vez escasean más, por lo que el lobo se alimenta de animales domésticos.

Pero también existen áreas sin lobos donde hay exceso de herbívoros salvajes que, al entrar en contacto con el ganado, actúan como vector trasmisor de enfermedades. Según la Junta de Extremadura, en 2015 hubo que sacrificar 7.526 reses por un brote de tuberculosis bovina, cada vez más extendida por el aumento de jabalíes y ciervos en la región. Si se comparan las cifras, ¿hasta qué punto es cierto que los lobos perjudican a los ganaderos? Hay territorios en los que hay tal cantidad de ciervos y cabras montesas que incluso los Parques Nacionales programan batidas de caza para reducir su número. Son lugares en los que ya no quedan lobos que regulen el crecimiento desmedido de estas poblaciones.


El Duero: una frontera para la caza

El Proyecto LOBO propone la elaboración de un censo ciudadano independiente. / Mauricio Antón.

El Proyecto LOBO propone la elaboración de un censo ciudadano independiente. / Mauricio Antón.

Aunque la especie goza del máximo nivel de protección según la normativa europea, en cada comunidad autónoma se aplican normas diferentes para la gestión del lobo. En Madrid y Castilla La Mancha las administraciones no permiten su caza. También en Portugal está estrictamente protegido. Sin embargo, en Galicia y al norte del río Duero en Castilla y León el lobo es una especie cinegética, por lo que, si su estado de conservación es favorable, pueden cazarse ejemplares. La caza se regula a través de cupos que no tienen en cuenta el furtivismo, ni la estructura social de las manadas, ni el número real de ejemplares vivos –Castilla y León estableció un cupo de 143 lobos para 2015-2016–.

Para mantener un ecosistema y las especies que lo pueblan, la caza no debería ser una herramienta de conservación. La gestión tendría que dirigirse a proteger las especies y su equilibrio, lo que pasaría por dejar que creciera una cobertura de vegetación natural que albergara presas salvajes para el lobo. Sin embargo, lo que se está haciendo es convertir al ser humano en el depredador de los grandes herbívoros y también del lobo.

El censo de 2013-2014 de la Junta de Castilla y León señala que se han detectado en esa comunidad 179 grupos de lobos, 152 al norte del Duero y 27 al sur. La Administración calcula que cada grupo está compuesto por 9 miembros, pero según los científicos las manadas en la península raramente llegan a tener 6. Esto hace suponer que los resultados del censo son excesivamente optimistas sobre el aumento de lobos en la última década. Se da también la paradoja de que los encargados de elaborar estos censos son los mismos que establecen los cupos de caza, hecho por el que han surgido voces que denuncian la manipulación de las cifras. Por su parte, el último censo publicado por el Ministerio de Medio Ambiente tampoco recoge el número de individuos. Según el documento, actualmente hay 297 manadas en toda España. Esta cifra y los ataques al ganado justifican para la ministra en funciones, Isabel García Tejerina, retirar la protección al lobo y permitir su caza en todo el territorio.

Un primer paso para proteger al lobo ibérico es conocer el número real de ejemplares existentes. A ese propósito responde la iniciativa Proyecto LOBO que propone la elaboración de un censo independiente con la colaboración de ciudadanos y diferentes actores implicados. El objetivo no es solo contar los ejemplares que habitan nuestras montañas, sino analizar el estado de conservación de los lobos y de los hábitats naturales que aún recorren estos supervivientes de la persecución humana.

 

* Fernando Palacios es investigador del CSIC en el Museo Nacional de Ciencias Naturales (MNCN). Xiomara Cantera trabaja en el área de comunicación del MNCN y dirige la revista NaturalMente. Para saber más, consulta el artículo Lobos para recuperar la biodiversidad’.

¿Qué son los fondos ‘buitre’?

S. MiretE. Outer.J. Mag.Por Juan Margalef Roig, Enrique Outerelo Domínguez y Salvador Miret Artés*

Los hedge funds, popularmente conocidos como fondos ‘buitre’, han acaparado titulares y espacio en los medios de comunicación españoles en los últimos tiempos. Probablemente, los casos más mencionados han sido el de la deuda argentina y el desembarco de estos fondos en el mercado inmobiliario de la Comunidad de Madrid.

Pero, ¿qué son exactamente los hedge funds? Lo primero que cabe decir es que son fondos de inversión que tienen una gestión muy dinámica y agresiva, asumiendo riesgos muy altos. Gestionan grandes cantidades de dinero que proceden de grandes fortunas, fondos de pensiones, de otros fondos de inversión y de pequeños ahorradores. Una de sus líneas de inversión son proyectos desarrollados por pequeñas empresas, con las que adquieren un compromiso de permanencia en el capital durante un cierto tiempo. Sin embargo, son más conocidos por comprar, en el mercado secundario, la deuda de países o corporaciones en crisis con grandes descuentos (hasta el 70%), para después litigar en los tribunales con el objetivo de cobrar la totalidad nominal de los activos que han comprado.

Corralito

La crisis argentina de 2001 no sólo llevó al ‘default’; también fue causante de un ‘coralito’ financiero que provocó el enfado de los pequeños ahorristas. / Barcex, CC-BY-SA, via Wikimedia Commons.

Este es el caso de la deuda argentina. En 2001, el país entró en suspensión de pagos (default) y comenzó a negociar con los tenedores de la deuda –que por aquel entonces era 102.000 millones de dólares– quitas y plazos más relajados para el pago. El 92,4% de estos tenedores aceptaron canjes del 70% (es decir, recibieron voluntariamente la devolución del dinero invertido con un descuento del 70 % del valor nominal de la deuda adquirida) y fechas de vencimiento de cinco años. Sin embargo, algunos bonistas y hedge funds liderados por NML Capital no aceptaron las nuevas condiciones y optaron por litigar. Estos hedge funds habían aprovechado el default para comprar, a un precio mucho más bajo de su valor nominal, deuda soberana argentina a tenedores con necesidad de recuperar rápidamente al menos una pequeña parte de su inversión. Aquí no entraremos a valorar la gestión de un país por los gobernantes de turno.

Catorce años después, en julio de 2015, el juez estadounidense Thomas P. Griesa decidió que todos los bienes del Gobierno argentino en los Estados Unidos podían ser considerados comerciales, con excepción de los militares y diplomáticos, dando vía libre así a que el patrimonio argentino pudiera ser embargado y subastado. De este modo, la sentencia permitió a NML Capital cobrar 832 millones de dólares por deuda argentina que en 2001 le había costado 48,7 millones de dólares. Recientemente, el nuevo gobierno argentino ha llegado a un principio de acuerdo con estos fondos ofreciéndoles un 75% de sus reclamaciones, con una quita mejor que la pactada con otros fondos menos poderosos.

Como ilustra el ejemplo, este tipo de operaciones son de alto riesgo y su resolución puede prolongarse durante varias décadas. Pero también implican ganarse el sobrenombre de ‘buitre’: si este carroñero se come la carne de animales muertos y ataca a presas debilitadas, los hedge funds sacan ventaja de la situación de tenedores de deuda, corporaciones y países en crisis.

Así, en 2013 estos fondos vieron una oportunidad en la crisis española. Ese año, varios de ellos entraron en el mercado inmobiliario de la Comunidad de Madrid a través de diferentes operaciones:

  • Compra de 1860 pisos de la Empresa Municipal de la Vivienda y Suelo de Madrid por 12,5 millones de euros.
  • Compra de 3000 pisos a la Agencia de Vivienda Social de la Comunidad de Madrid (IVIMA), por 200 millones de euros.
  • Compra de viviendas con inquilino. En este caso, al extinguirse el contrato con el antiguo propietario, las renovaciones tenían condiciones más duras que algunos inquilinos no pudieron afrontar.
  • Compra de créditos hipotecarios. Es decir, ante el temor de que los compradores de pisos no pudieran hacerse cargo del pago de sus hipotecas, los bancos decidieron traspasar éstas a los fondos buitre por un valor inferior al de la deuda nominal.

Los fondos apostaron a que el mercado inmobiliario frenaría su tendencia bajista y volvería a crecer; mientras que los vendedores pensaron que existía un alto riesgo de un impago masivo de hipotecas inmobiliarias que llevaría al mercado aún más a la baja. Al menos hasta el momento, podríamos decir que quienes acertaron fueron los primeros, puesto que, de 2013 a 2015, los precios de la vivienda subieron un 20%. De hecho, algunos piensan que los bancos habrían perdido menos dinero suavizando las condiciones de los hipotecados en lugar de vendiendo las hipotecas a los fondos buitre.

 

* Juan Margalef Roig y Salvador Miret Artés son investigadores del CSIC en el Instituto de Física Fundamental. Enrique Outerelo Domínguez es profesor de la Universidad Complutense de Madrid. Los tres son autores de los cuatro volúmenes de la obra Probabilidad y Economía (Sanz y Torres).

La primera misión tripulada a Marte se prepara en Río Tinto

cristina delgado blogPor Cristina Delgado González (CAB)*

Quizá sea The Martian, la película de Ridley Scott, la que ha puesto más en boga, si cabía, el planeta rojo. Pero nadie negará que Marte se escucha en todas partes. Sea como fuere, una futura misión tripulada al planeta vecino está dejando de ser un proyecto ficticio, y Río Tinto, en Huelva, vuelve a ser un análogo marciano donde hacer ensayos para preparar dicha misión.

El proyecto europeo MOONWALK tiene como principal objetivo desarrollar y mejorar las técnicas para que un humano y un robot realicen actividades extravehiculares (EVA) en cooperación. Para ello, se desarrollarán dos campañas: una en Río Tinto y otra bajo el mar en la costa de Marsella, que simula las condiciones de baja gravedad de la superficie lunar. La primera de estas campañas se llevará a cabo durante las dos últimas semanas de abril, en lo que el responsable del Centro de Astrobiología (CAB-CSIC) en MOONWALK, Víctor Parro, considera “la gran maqueta de Marte”.

Paisaje análogo a Marte en Río Tinto, Huelva./Luis Cuesta

Paisaje análogo a Marte en Río Tinto, Huelva / Luis Cuesta

La zona de Río Tinto cuenta con túneles abandonados de la minería similares a los tubos de lava que hay en Marte, lugares donde la hipotética vida marciana estaría protegida de los daños que supone la superficie, como la radiación. Pero explorar este tipo de terrenos puede resultar difícil para un astronauta, que a diferencia de lo que se muestra en la película protagonizada por Matt Damon, lleva un traje muy pesado. Esto implica una serie de limitaciones a la hora de, por ejemplo, subir una cuesta. Sin embargo, un robot pequeño como el que se ha diseñando para MOONWALK sí podría realizar este movimiento. Según el equipo del CAB que trabaja en este proyecto internacional, ésta es una buena oportunidad para consolidar Río Tinto como un lugar de referencia para simulaciones con astronautas y/o robots en el continente europeo.

No solo el paisaje de este enclave onubense es muy marciano: su suelo es también rico en sulfatos y minerales de hierro y azufre. Por ello se aprovechará la campaña para probar otra instrumentación, como el RLS (Raman Laser Spectrometer) que irá en el rover (el vehículo motorizado que se desplaza por la superficie del planeta) de la misión ExoMars 2018 de la ESA, o el instrumento para la detección e identificación de microorganismos y compuestos bioquímicos SOLID (Signs Of LIfe Detector).

Estas campañas ponen a prueba los avances en instrumentación y ciencia. En el caso concreto de MOONWALK, ayudan a identificar los factores que afectan a la comunicación entre astronauta y robot y a optimizar su relación. De esta forma, una misión tripulada a Marte podría traspasar las salas de cine, y Río Tinto es parada obligatoria en ese camino.

*Cristina Delgado González pertenece a la Unidad de Cultura Científica del Centro de Astrobiología (CSIC-INTA).

Agujeros negros: los dragones de las galaxias

M. VillarPor Montserrat Villar (CSIC)*

Érase una vez un dragón que dormitaba en el interior de una gruta, en pleno corazón del reino. Los habitantes de aquel país vivían plácidamente y sin grandes avatares, salvo los propios de una existencia cotidiana. Todos sabían que allí moraba un temible monstruo. Sin embargo, residían despreocupados pues este pasaba los días escondido y tranquilo, sin molestar a nadie. Salvo a quienes entraban en la cueva: estos no regresaban jamás. La bestia entonces despertaba y las consecuencias eran devastadoras.

Muchas galaxias, incluida nuestra Vía Láctea, contienen agujeros negros en sus centros. Son los monstruos de nuestra historia. Los denominamos ‘supermasivos’ por sus masas enormes. Si usamos la de nuestro Sol como unidad, las masas pueden estar en un rango de entre unos pocos millones y hasta 20 mil millones de soles. Habría que juntar todas las estrellas de una galaxia como la Gran Nube de Magallanes para reunir una masa equivalente. Con la asombrosa diferencia de que ocuparían un volumen menor que el del Sistema Solar.

Superviento

Impresión artística de un superviento generado en el entorno de un agujero negro en la galaxia activa NGC 3783. / ESO-M. Kornmesser.

En general, los agujeros negros supermasivos se hallan en estado latente. No sabríamos de su existencia si no fuera porque vemos que las estrellas y el gas en las proximidades del centro galáctico se mueven tan deprisa y en un volumen tan pequeño, que solo un agujero negro puede explicar movimientos tan extremos. Sin embargo, en un 10% de las galaxias estos agujeros negros presentan una actividad frenética. Son las llamadas galaxias activas. En ellas el agujero negro está siendo alimentado; aportes suficientes de material (gas, estrellas) hacen que se active. Como el dragón que dormita tranquilo sin molestar a nadie hasta que entra algún incauto despistado y su furia se desata. En estos casos la actividad del agujero negro puede hacer que el centro de una galaxia brille tanto como decenas, hasta miles de galaxias juntas. Esta luz tan intensa es emitida por material muy caliente cercano al agujero negro, pero situado fuera del horizonte de sucesos, pues nada que cruce este horizonte puede escapar, ni siquiera la luz.

Un descubrimiento de gran importancia realizado hace tan sólo unos 15 años ha mostrado que (dicho de manera simplificada) la masa de las estrellas de una galaxia y la del agujero negro supermasivo se hallan relacionadas, siendo la masa del agujero negro aproximadamente una milésima (0,1%) la de la galaxia. Es decir, cuanta más masa tiene uno, más masa tiene la otra. Como si lo que pesa el dragón de la historia estuviera relacionado con lo que pesan todos los habitantes del reino juntos.

Grafica

La masa del agujero negro supermasivo está íntimamente relacionada con la masa de las estrellas de la galaxia que lo alberga (K. Cordes y S. Brown, STScI).

Esto sugiere que la galaxia y el agujero negro central no se formaron y crecieron de manera independiente, sino que hubo algún mecanismo que los conectaba. Sin embargo, dada la enorme diferencia en masa, la región en la que se siente la gravedad del agujero negro es diminuta en relación a la galaxia entera. Esto puede imaginarse al comparar el tamaño de una moneda de euro con el de una ciudad como Madrid. ¿Qué mecanismos pueden conectar la evolución de algo tan pequeño y la de algo comparativamente gigantesco? Es una cuestión que actualmente causa un acalorado debate en la comunidad científica, puesto que su respuesta tiene implicaciones importantes en cuanto a nuestra comprensión de la formación y la evolución de galaxias.

Un posible mecanismo es el de los llamados ‘supervientos’. Los modelos predicen que con su enorme potencia, la energía liberada en las proximidades del agujero negro activo podría ser capaz de expulsar gran parte del gas en las galaxias en formación. Este ‘superviento’ privaría a las galaxias de buena parte del combustible necesario para formar nuevas estrellas y alimentar el agujero negro. Así, la energía inyectada en el medio circundante regularía simultáneamente el crecimiento del agujero negro y el de la galaxia que lo alberga, que podría así ralentizarse, llegando incluso a detenerse. Según esto, los agujeros negros supermasivos ‘conspiraron’ en los inicios para manipular la formación de las galaxias; algo comparativamente minúsculo consiguió así moldear la evolución de algo gigantesco.

El dragón de la historia no ha medido las consecuencias de su devastadora violencia: ha destruido su entorno causando dramáticos efectos que impiden el crecimiento futuro de la población del reino y ha provocado además su propia muerte por inanición.

¿O no…?

¿Qué ocurrirá si un día, cuando todo parezca inerte y en calma, un aventurero temerario se arriesgue a entrar en la gruta?

¿Volverá a despertar el monstruo?

 

* Montserrat Villar es investigadora en el Centro de Astrobiología (CSIC-INTA) en el grupo de Astrofísica extragaláctica. 

Baade y Zwicky: la extraña pareja que descubrió las estrellas supernovas

autorPor Miguel A. Pérez Torres (CSIC)*

Si el director de cine Gene Saks hubiera decidido hacer una versión de la excelente comedia La extraña pareja (1968) protagonizada por científicos, sin duda habría escogido a Walter Baade en el papel de Félix (Jack Lemmon) y a Fritz Zwicky para el de Óscar (Walter Matthau).

Fritz Zwicky (Bulgaria 1898 – EE.UU. 1974), físico especialista en materia condensada, llegó al Instituto de Tecnología de California (el famoso CalTech) en los años veinte del siglo pasado, procedente de Suiza, donde se crió y cursó estudios universitarios. Era brillante y polifacético, pero su corrosiva y neurótica personalidad, así como su arrogancia sin límites, lo convirtieron en poco más que un bufón para muchos de sus colegas.

Pareja

Walter Baade (arriba) y Fritz Zwicky (abajo).

En una ocasión, en el colmo de la arrogancia, Zwicky llegó a afirmar que él y Galileo eran las dos únicas personas que sabían utilizar correctamente un telescopio. Un ejemplo de su bufonería neurótica estaba relacionado con el fanatismo que profesaba por el deporte. No era raro encontrarlo en el suelo del recibidor del comedor de CalTech haciendo flexiones con un solo brazo, demostrando así su virilidad ante cualquiera que, en su opinión, la hubiera puesto en duda.

Asimismo, era tan agresivo y sus modales tan intimidatorios que incluso su colaborador más cercano, Walter Baade (Alemania 1893 – 1960), el otro protagonista de este artículo, y que tenía una personalidad tranquila, llegó a negarse a que lo dejaran solo con Zwicky entre las cuatro paredes de un despacho. En un más que probable acceso de paranoia, Zwicky llegó a acusar a Baade de ser nazi, lo cual era completamente falso. Y, al menos en una ocasión, Zwicky amenazó con matar a Baade, que trabajaba en el observatorio de Mount Wilson, colina arriba de Caltech, si alguna vez lo veía en el campus de su instituto.

En fin, Zwicky era un científico que la mayoría no querría tener como compañero de despacho, pero cuya brillantez y colaboración con Baade iban a resultar fundamentales para explicar la aparición de unas estrellas extremadamente brillantes, y que habían traído de cabeza a los astrónomos durante décadas.

En marzo de 1934, Baade y Zwicky enviaron dos comunicaciones a la Academia de Ciencias de los Estados Unidos que marcarían un antes y un después en la astrofísica.

En la primera de esas comunicaciones, titulada ‘On Super-novae’, los autores proponían la existencia de un nuevo tipo de estrellas ‘nova’, las ‘super-novas’. Las novas, estrellas que aumentan su brillo enormemente durante periodos típicos de días o semanas, eran conocidas al menos desde el siglo anterior, y quizá por ello habían dejado de llamar la atención de los astrónomos. La aparición de una nova excepcionalmente brillante en la nebulosa de Andrómeda, en 1885, renovó el interés de los científicos por este tipo de astros. Sin embargo, nadie había logrado explicar satisfactoriamente este fenómeno.

En su trabajo, Baade y Zwicky proponían que las supernovas eran un fenómeno general en las nebulosas (en aquella época, el término ‘galaxias’ no estaba todavía asentado). Además, estas supernovas ocurrirían con mucha menor frecuencia que las novas, de ahí que se hubieran descubierto tan pocas.

Baade y Zwicky utilizaron como supernova-patrón el objeto descubierto en 1885 en la galaxia de Andrómeda, y calcularon que su luminosidad máxima debió de ser unas 70 millones de veces la de nuestro sol, compitiendo así con la luminosidad total de una galaxia. Posiblemente, esta colosal luminosidad fue decisiva para que propusieran el nombre de ‘super-novas’.

Supernova 1994D (punto brillante en la parte inferior derecha) captada por el teloscopio Hubble. / NASA-ESA-

Supernova 1994D (punto brillante en la parte inferior derecha) captada por el teloscopio Hubble. / NASA-ESA-

La pareja también estimó que la estrella tuvo que haber perdido una fracción significativa de su masa inicial, incluso varias veces la masa del sol. La conclusión principal del trabajo era que las supernovas representaban la transición de una estrella ordinaria a un objeto con una masa mucho menor. Aunque expresada con ciertas reservas, ya que la presencia de objetos como la supernova de 1885 en Andrómeda era todavía muy escasa, la hipótesis de Baade y Zwicky se vio plenamente confirmada por observaciones y estudios posteriores.

En la segunda comunicación, titulada explícitamente ‘Cosmic Rays From Super-Novae’, Baade y Zwicky sugerían que los rayos cósmicos se producían en las supernovas (¡cuya existencia habían propuesto en la página anterior!) y explicaban satisfactoriamente las observaciones de rayos cósmicos existentes en la época.

Estos resultados habrían bastado, por sí solos, para ganarse una reputación de por vida, como así fue por otra parte. Pero la pareja fue más allá en su segundo trabajo y, “con todas las reservas”, avanzó la hipótesis de que las supernovas representaban la transición de una estrella ordinaria a una estrella de neutrones.

Hay que tener en cuenta que James Chadwick había descubierto el neutrón apenas año y medio antes, en 1932. Baade y Zwicky entendieron que ese nuevo estado de la materia en las estrellas las haría estables, pero quisieron ser especialmente cautos. Solo así también se entiende que separaran sus resultados sobre las supernovas en dos comunicaciones, en lugar de publicarlas como un único artículo.

Son muy pocos los trabajos en astrofísica que, como estos de Baade y Zwicky, presentan tantos conceptos nuevos, incluso revolucionarios, al tiempo que dan con la solución a problemas que habían permanecido largo tiempo sin respuesta satisfactoria alguna. La presentación de estos resultados en dos breves, concisos y muy claros artículos, propició su rápida difusión, no sólo entre los astrofísicos, sino también entre el público en general.

Hoy día, todos los estudiantes de astrofísica aprenden en los libros de texto que la muerte de una estrella masiva da como resultado una supernova, que a su vez deja como remanente una estrella de neutrones (o quizá un agujero negro, como hoy sabemos). También aprenden que las supernovas representan la principal fuente de rayos cósmicos en el universo. Todo esto se lo debemos a los estudios pioneros realizados por Baade y Zwicky en los años 1930. Insisto, a “Baade y Zwicky”, ya que es muy habitual citar solamente a Zwicky como la persona que realizó estas gestas científicas, algo que posiblemente se deba a su peculiar personalidad, que contrastaba con la del tranquilo y caballeroso Baade.

 

* Miguel A. Pérez Torres es investigador del CSIC en el Instituto de Astrofísica de Andalucía.

Mosquitos tigre, eucaliptos, mejillones cebra… ¿Las especies exóticas son siempre perjudiciales?

jorge-casinelloPor Jorge Cassinello (CSIC)*

Periquitos y cotorras argentinas sobrevolando la Casa de Campo de Madrid, mosquitos tigre que se convierten en un problema de salud pública en la costa mediterránea, bosques plagados de eucaliptos… Estos son algunos ejemplos de especies exóticas presentes en España. Una especie exótica o alóctona es aquella que llega a determinado territorio o ecosistema sin utilizar sus propios medios ni la intervención de procesos naturales. Se introduce por acción del ser humano, ya sea de forma intencionada o accidental. Ahora bien, ¿cuándo una especie exótica es invasora?

Hasta hace pocos años el concepto ‘invasor’ se aplicaba a las especies exóticas establecidas y en proceso de expansión; sin embargo, recientemente la Unión Internacional para la Conservación de la Naturaleza estableció que una especie exótica invasora es aquella que causa daños y perjuicios en el ecosistema huésped. Esta es la definición aceptada en la actualidad, y por ello podemos equiparar el término ‘invasor’ con ‘perjudicial’ o ‘dañino’.

Desde un punto de vista evolutivo y ecológico, la presencia de una especie foránea en un ecosistema puede ocasionar importantes alteraciones. Esto se debe a que la especie exótica llega a una cadena trófica establecida evolutivamente y -sea como depredadora, competidora o como nueva fuente de alimento- puede originar cambios en la abundancia, distribución o supervivencia de las especies nativas.

Mosquito tigre capturado en el interior de un vehículo. Foto: app Tigatrapp

Mosquito tigre capturado en el interior de un vehículo. / App Tigatrapp.

¿Son todas las especies de origen exótico invasoras? Evidentemente no. La gran mayoría de las especies introducidas por el ser humano no tienen efectos negativos reconocidos sobre los ecosistemas. Este sería el caso de una buena parte de las plantas ornamentales o de los cultivos de plantas originarias de América que hoy se encuentran muy extendidos en todos los continentes, como el maíz, la patata o el tomate. Sólo unas pocas de las especies exóticas introducidas (en EEUU se estima que entre un 4-19%) han demostrado ser perjudiciales, al desplazar o incluso llevar a la extinción a especies autóctonas. Contamos con ejemplos muy conocidos, como el mejillón cebra y el mosquito tigre, pero también con la caña común o cañabrava, la carpa, el cangrejo americano, entre otros, así como las cabras y gatos domésticos introducidos en islas.

Aunque en muchos casos faltan estudios concluyentes, podemos establecer una serie de criterios para considerar el potencial invasor de una especie exótica.

Pensemos en una especie exótica imaginaria, la cual llega a nuestros lares por acción humana. ¿Qué ha de suceder para que sea considerada invasora? En primer lugar, es esencial que las condiciones climáticas, geográficas y ambientales sean adecuadas para el establecimiento, reproducción y desarrollo de dicha especie. A continuación es muy importante observar el grado de similitud evolutiva entre la especie introducida y las nativas. Si difieren sustancialmente a nivel evolutivo, la especie exótica asentada tiene muchas probabilidades de volverse invasora. Ejemplos paradigmáticos serían las introducciones de depredadores en islas o mamíferos placentados invasores en Australia, como el conejo, el dingo, el búfalo de agua o el dromedario.

Sin embargo, si la especie exótica y las nativas son semejantes evolutivamente existen muchas probabilidades de que la recién llegada ocupe un nicho ecológico acorde con las cadenas tróficas existentes, y en este caso su impacto dependerá de la presencia de la especie nativa. Así, si la especie nativa está presente podría darse competencia por los recursos y por tanto la especie exótica podría ser considerada invasora, como la ardilla gris de las Carolinas desplazando a la ardilla roja o el visón americano haciendo lo propio con el europeo. Pero si la especie nativa está extinta o no presente la exótica podría ocupar su nicho y cubrir un vacío útil para el ecosistema huésped. Un ejemplo sería el caso de las tortugas gigantes de las Seychelles introducidas en la Isla de Mauricio, en donde hace mucho tiempo se extinguieron las tortugas gigantes autóctonas.

ejemplar de arrui

Ejemplar de arrui. / Wikimedia.

Por último, si la especie exótica se establece en un medio alterado por el ser humano puede tener efectos positivos o negativos, en función del papel que juegue en la cadena trófica. Estos casos deben ser estudiados cuidadosamente, pues es probable que haya efectos inesperados en el contexto del cambio climático. Un ejemplo es el del arrui, un ungulado norteafricano emparentado con cabras y ovejas presente en el sureste español desde hace más de 40 años. El arrui se ha adaptado a las condiciones semiáridas de sierras murcianas y andaluzas y, paradójicamente, podría ayudar a mantener la diversidad de pastos silvestres en un escenario de calentamiento global y avance de la desertificación.

Es fundamental establecer con criterios científicos qué especies exóticas son invasoras y cuáles no, porque de lo contrario podemos dedicar ímprobos esfuerzos a erradicar una especie que en realidad no está perjudicando al medio natural.

Si nos atenemos a la definición de especie exótica invasora no podemos negar una realidad: la especie invasora más abundante y que ha colonizado prácticamente todos los rincones del planeta es el Homo sapiens. Así puede considerarse desde que tuvo la capacidad de desplazarse grandes distancias gracias a la creación de medios de transporte, y de establecerse y crecer alterando el medio y generando sus propias fuentes de subsistencia. Sin mediar ya ninguna relación coevolutiva con la mayoría de los ecosistemas huésped, es nuestro deber moral preservarlos y paliar al máximo los efectos negativos que les hemos ocasionado.

 

* Jorge Cassinello Roldán es investigador del CSIC en la Estación Experimental de Zonas Áridas y miembro de la Comisión por la Supervivencia de las Especies de la UICN.

¿Matarías a una persona para salvar a cinco? Ética e intuiciones morales

AutorPor Fernando Aguiar (CSIC)*

Un tranvía corre sin frenos hacia cinco trabajadores que, ajenos a la desgracia que les espera, arreglan unas traviesas. Si nadie lo remedia morirán arrollados. Por fortuna, alguien lo puede remediar, usted, que presencia la escena: basta con que cambie las agujas para desviar el vagón hacía una vía muerta en la que solo hay un trabajador. Es cierto que ese trabajador morirá, pero se salvarán los otros cinco. ¿Cambiaría las agujas sabiendo cuál es el resultado de su decisión?

Si considera que salvar a cinco personas es la mejor opción en este caso, coincidirá usted con la mayoría de la gente: en efecto, el 90% dice que cambiaría las agujas. Sin embargo, imagine que se encuentra ante una situación similar a la anterior, pero ahora en lugar de cambiar las agujas tiene que empujar a una persona muy gorda para que con su gran volumen detenga el tranvía. Esa persona también morirá sin remedio, pero las otras cinco se salvarán. ¿La empujaría? ¿Qué le dictan sus intuiciones morales en este caso?

John Holbo 2

Ilustración: John Holbo

Aunque de nuevo se trata de salvar a cinco personas a costa de una, en esta ocasión solo un 25% de la gente asegura que daría el empujón fatal: no es lo mismo matar que dejar morir; eso es lo que, al parecer, nos dicen nuestras intuiciones morales. ¿Y si el que está en la vía muerta es su padre? ¿Y si es su hijo? ¿Los sacrificaría para salvar a cinco personas? La intuición nos dicta que no tenemos por qué cambiar las agujas. ¿Y si es un niño desconocido? En tal caso, las intuiciones morales de hombres y mujeres son distintas, pues ellos dicen estar dispuestos en mayor medida que ellas a desviar el tranvía.

Las intuiciones morales –la percepción inmediata de que una acción es moralmente correcta o incorrecta– son importantes para entender muchas de nuestras decisiones, convicciones, dilemas y contradicciones. Esas intuiciones a veces son claras y la reflexión las confirma; otras, sin embargo, son confusas, poco fiables y están sesgadas por todo tipo de prejuicios. En cualquier caso, es preciso conocerlas bien, tanto su naturaleza como sus fundamentos, dado que nos sirven de guía para la acción moral. Esa es, precisamente, la tarea de una nueva rama de la filosofía denominada ‘ética experimental’. Ahora bien, ¿‘ética’ y ‘experimental’ no son términos contrapuestos? ¿Cómo puede ser experimental una disciplina que trata sobre el deber ser, sobre cómo debemos comportarnos?

La filosofía se ha considerado ajena a la producción de datos, lo que no significa que haya carecido de interés por ellos y por las ciencias que los generan. De hecho, durante los siglos XIX y XX (cuando la separación entre ciencia y filosofía ya es completa) buena parte de la mejor filosofía se apoyó en datos científicos de todo tipo, sociales y naturales, para reforzar o ilustrar sus teorías. Sin embargo, no era su misión producirlos; antes al contrario, cómodamente sentado en su butacón, el filósofo especulaba sobre los fundamentos de la realidad natural, social o política y sobre la naturaleza de la moral sin mancharse las manos con cuestiones empíricas. Con el surgimiento de la ética experimental, apenas hace diez años, ese panorama cambió por completo: como otras ramas de la filosofía, la ética se ha propuesto ahora generar sus propios datos.

Tranvía

Ilustración: John Holbo

¿Pero qué necesidad tiene la ética de producir datos? ¿Qué busca? Busca intuiciones morales como las del ejemplo del tranvía u otras similares sobre egoísmo, altruismo, virtud, tolerancia, honradez, corrupción, crueldad, generosidad, etc. ¿Devolvería usted una cartera llena de dinero? ¿Llegaría tarde a una importante cita por ayudar a alguien? ¿Renunciaría a un soborno millonario? La ética experimental estudia las intuiciones morales de la gente para conocer su naturaleza y sus límites, propiciando al mismo tiempo que las teorías éticas sean más realistas. Supongamos que ningún ser humano estuviera dispuesto a mover las agujas del tranvía para salvar a cinco personas frente a una, ¿qué sentido tendría que una teoría nos dijera que el cambio de agujas es lo correcto? Parafraseando a Kant, podemos afirmar entonces que las teorías éticas sin intuiciones son ciegas, pues resultan ajenas a la psicología moral humana (teorías para dioses o demonios); pero las intuiciones morales sin teorías son vacías, pues nos guían de forma contradictoria en demasiadas ocasiones.

Así pues, lejos del confortable butacón, filósofos y filósofas llevan a cabo experimentos hipotéticos o reales similares a los de la psicología o la economía. En los primeros, los participantes deben expresar un juicio moral sobre una situación hipotética dada (el problema del tranvía, por ejemplo); en los reales, tienen que tomar una decisión moral, ya sea de forma individual o como producto de la cooperación. Imagínese, por ejemplo, que en el laboratorio de ética le entregan 20 monedas de un euro y tiene que decidir si darle a otra persona, elegida al azar, una moneda, o dos, o tres, o cuatro, o cinco… o todas, o bien puede no darle ninguna; esto es, se queda usted con los 20 euros. A su vez, la persona en cuestión tiene en su mano aceptar la oferta –por ejemplo, usted le ofrece 4 euros– o rechazarla. Ahora bien, si la rechaza ambos se quedan sin nada. ¿Usted cuánto ofrecería? ¿Cuál es su intuición moral en este caso? ¿Cuál sería la oferta más justa?

Experimentos hipotéticos o reales ponen a las personas, pues, frente a su concepción del bien y lo correcto; y las teorías éticas se benefician de ese conocimiento. De vuelta al butacón se puede especular de nuevo sobre principios y consecuencias morales apoyándose en bases más firmes. La ética experimental consigue así elaborar teorías normativas y empíricas a la vez; logra, en otras palabras, ser filosofía y ciencia al mismo tiempo. Démosle la bienvenida.

 

* Fernando Aguiar es investigador del CSIC en el Instituto de Estudios Avanzados (IESA).