Archivo de la categoría ‘Tecnologías’

¿Es posible predecir la presencia de medusas en nuestras costas?

Por Laura Prieto (CSIC)*

Las medusas suscitan un gran interés en verano y, por ello, tienen mayor protagonismo en los medios de comunicación que, por ejemplo, sus “compañeros” en los mismos niveles de la cadena trófica: los peces. El interés de la sociedad y la gran cantidad de información sobre estos animales ha llevado a pensar que cada vez hay más medusas en nuestras costas. Pero esta idea no es cierta.

‘Pelagia noctiluca’ es una de las especies más comunes en el Mediterráneo. / Filippo Fratini (CC-BY-SA-4.0)

Los datos que, desde 2014, hemos obtenido en el archipiélago de las Islas Baleares contradicen esta afirmación. En la zona, la especie protagonista por excelencia es Pelagia noctiluca, tanto por su abundancia como por su frecuencia. Este organismo siempre está en la columna de agua (de ahí lo de ‘pelagia’) y brilla por la noche (por eso, se la denomina ‘noctiluca’), cuando emerge a la superficie tras pasar el día a más de 100 metros de profundidad. Pues bien, hay periodos en los que esta especie ha estado presente durante todo el año y, otros, como 2020, en los que no ha habido ningún avistamiento en ninguna zona del Mediterráneo occidental, a pesar de que el sistema de observación de medusas construido por el Govern, el Sistema de Observación y Predicción Costero de las Islas Baleares (SOCIB) y el CSIC ha estado operativo. En otros momentos, esta medusa ha sido muy abundante en forma de ejemplares adultos, como durante la pasada primavera. Según los datos obtenidos, el hecho de que Pelagia noctulica, una especie que se mueve con las corrientes de mar abierto de todo el Mediterráneo, llegue en verano a una costa determinada está más relacionado con la oceanografía y la meteorología de cada zona en particular.

De todas formas, la más peligrosa de las medusas que llegan a las costas baleares es la carabela portuguesa (Physalia physalis), una especie de gran tamaño y largos tentáculos que vive en la superficie y que es conocida por la intensidad del dolor que produce su picadura. Ejemplares aislados de este organismo fueron avistados la pasada primavera. Al igual que la medusa velero (Velella velella), de un tamaño más pequeño e indolora, la distribución de la carabela portugesa está marcada únicamente por las corrientes de superficie y por la dirección y la intensidad de los vientos. Los más de 200.000 datos de medusas recogidos por nuestro sistema de observación nos han permitido conocer los mecanismos que atraen a la carabela portuguesa desde el centro del océano Atlántico, su hábitat natural, hasta las costas ibéricas. Además, con estos datos, hemos construido un modelo predictivo de su distribución en toda la cuenca del mar Mediterráneo una vez que entran por el estrecho de Gibraltar.

La carabela portuguesa es conocida por el intenso dolor que produce su picadura. / Volkan Yuksel (CC-BY-SA-3.0)

La primera conclusión que podemos extraer de estos ejemplos es que para poder estudiar la dinámica de las medusas y cómo se ven afectadas por el medio ambiente en el que viven, es necesario que los científicos y las científicas dispongamos de bases de datos de larga duración, construidas de forma sistemática y sólida. De esta manera, podremos relacionar patrones y construir herramientas de predicción capaces de determinar la probabilidad de que lleguen arribazones de medusas a una costa o a una playa determinada.

El segundo corolario es que la respuesta científica correcta a la pregunta de si es posible predecir la llegada de medusas a nuestras costas es que, a día de hoy, eso depende de la especie y de la zona de estudio. Actualmente, hemos construido y validado herramientas de predicción para dos especies y en dos zonas: Cotylorhiza tuberculata en la laguna del Mar Menor y carabela portuguesa en la cuenca del Mediterráneo. Sin embargo, seguimos trabajando para poder dar respuesta a la presencia de Pelagia noctiluca, Rhizostoma pulmo y Rhizostoma luteum. Esta última es la de mayor tamaño de todas, y de apariciones solitarias desde la cornisa cantábrica hasta el mar de Alborán y en toda la costa atlántica del continente africano.

* Laura Prieto es investigadora del CSIC en el Instituto de Ciencias Marinas de Andalucía.

Almacenamiento geológico de carbono: el patito feo de la descarbonización

Por Víctor Vilarrasa (CSIC)*

Ahora que aprieta el calor, no puedo dejar de pensar en el cambio climático. Los registros nos indican que aumenta el número de olas de calor, de noches tropicales y de episodios de gota fría o DANAs –depresiones aisladas en los niveles altos de la atmósfera que provocan fuertes tormentas–. Para mitigar estos y otros efectos del cambio climático, debemos conseguir un balance neto de emisiones de dióxido de carbono (CO2) igual o menor que cero en un futuro cercano. Es decir, la cantidad de CO2 que emitamos a la atmósfera tendrá que ser igual o inferior al CO2 que extraigamos de ella. En España, con unas emisiones de gases de efecto invernadero de 334 millones de toneladas equivalentes de CO2 en 2018, todavía nos queda un largo camino para conseguirlo. Aunque las hemos disminuido un 25% con respecto a 2005, siguen siendo un 15% mayores que las de 1990, año que se toma como referencia para cuantificar las reducciones en las emisiones.

Planta de almacenamiento de carbono. / Pexels

Planta de almacenamiento de carbono. / Pexels

Descarbonizar la economía

El primer paso para la neutralidad de carbono consiste en descarbonizar todos los sectores de la economía. El sector que emite más CO2 es el energético, ya que en la actualidad el 85% de la energía que consumimos se genera a partir de hidrocarburos. Las grandes petroleras y empresas energéticas se están comprometiendo a lograr el balance neto de emisiones de CO2 igual a cero en 2050. Esta transición implica basar la producción de energía en fuentes renovables; mayoritariamente las energías solar, eólica e hidroeléctrica, pero complementadas por la geotérmica, la mareomotriz (que aprovecha las mareas) y la undimotriz (que se obtiene del movimiento de las olas). También se plantea sustituir los hidrocarburos por biomasa en la producción de electricidad, dado que el carbono que se emitiría al quemarla sería el mismo que habrían capturado previamente las plantas. Igualmente, la energía nuclear, que no tiene emisiones de CO2 asociadas, seguirá formando parte del mix energético con gran probabilidad.

Esta transformación es más compleja que instalar una capacidad de producción igual a la demanda, dado que las fluctuaciones que se producen en la mayoría de las fuentes de energías renovables (luz solar, viento, caudal hidrológico, etc.) requieren la capacidad de almacenar cantidades ingentes de energía para compensar los déficits de producción con los excedentes. Cómo almacenar esta energía no es trivial, dado que las baterías no tienen suficiente capacidad y la producción de combustibles sin carbono para su uso posterior, como el hidrógeno, conlleva una eficiencia bastante baja. A pesar de estos retos, se considera que la descarbonización del sector energético es viable.

Al sector energético le siguen en emisiones de CO2 los sectores del transporte e industrial. Para reducir sus emisiones, estos sectores se tendrán que electrificar, lo que aumentará la demanda del sector energético. No obstante, al contrario que el sector de la energía, estos sectores difícilmente se podrán descarbonizar por completo. En el sector del transporte, el transporte marítimo y, sobre todo, el aéreo no cuentan, por el momento, con combustibles alternativos a los actuales. Por otra parte, aunque el sector industrial se abastezca de energías renovables, seguirá emitiendo millones de toneladas de CO2, porque la fabricación de ciertos productos, como el cemento, el acero y el etanol, conlleva la emisión de CO2 por las reacciones químicas que tienen lugar en su proceso de producción. En algunos casos, la investigación, desarrollo e innovación (I+D+i) podrá permitir la descarbonización de alguno de estos procesos mediante procedimientos alternativos, como en el caso del acero, que en la actualidad es responsable del 8% de las emisiones de CO2 a escala global. Sin embargo, otros procesos industriales solo se podrán descarbonizar mediante la captura del CO2 antes de ser emitido a la atmósfera y su posterior almacenamiento geológico. En España, 16 millones de toneladas de CO2 al año (Mt/a) son emitidas por 23 industrias que, a largo plazo, solo se podrán descarbonizar con la captura y almacenamiento de CO2 (CCS, por sus siglas en inglés); y 53 Mt/a, por 38 plantas de producción de energía, en las que se podría aplicar CCS a corto plazo para acelerar la transición hacia la neutralidad de carbono.

Devolver el carbono al subsuelo

El almacenamiento geológico de carbono tiene como objetivo devolverlo a su lugar de origen: bajo tierra. Tecnológicamente, este procedimiento está probado con éxito con caudales de inyección de 1 Mt/a. El Panel Intergubernamental de Expertos sobre el Cambio Climático (IPCC, por sus siglas en inglés) estima que la cantidad de CO2 almacenado en formaciones geológicas profundas debe aumentar de los 40 Mt/a actuales a 8.000 Mt/a en 2050. Esto implicaría tener unos 8.000 pozos inyectando 1 Mt/a de CO2. Puede parecer un número muy grande, pero es pequeño en comparación con los 8 millones de pozos que se han perforado para extraer gas y petróleo. No obstante, multiplicar por 200 el almacenamiento de CO2 en 30 años es sin duda un gran reto que implica un aumento del CO2 almacenado del 6% anual.

Víctor Vilarrasa

Víctor Vilarrasa

El almacenamiento se realiza a profundidades mayores de 800 metros en acuíferos salinos o en yacimientos agotados de gas o petróleo. A medida que aumenta la profundidad, como el subsuelo está saturado, es decir, los poros de las rocas están llenos de agua, la presión del agua que llena estos poros aumenta de forma equivalente al peso de la columna de agua que hay por encima. De manera similar, la temperatura también aumenta con la profundidad una media de 30°C por kilómetro. A profundidades mayores de 800 metros, la presión y la temperatura son suficientemente elevadas para que el CO2 se encuentre en su estado supercrítico. A pesar de lo extraño que pueda parecer el nombre de este estado, lo que nos indica es que el CO2 tiene propiedades tanto de un gas como de un líquido. Por un lado, su viscosidad es como la de un gas, es decir, muy baja, por lo que va a poder fluir con facilidad. Por otro, su densidad es como la de un líquido, es decir, elevada, y, por lo tanto, su almacenamiento va a ser eficiente porque ocupará un volumen relativamente pequeño. A pesar de presentar una densidad elevada, el CO2 es más ligero que el agua, por lo que tiende a flotar. Por este motivo, se necesita la presencia de una roca impermeable ubicada encima de la formación almacén, que se conoce como roca sello y que impide que el CO2 vuelva a la superficie. La formación almacén, al contrario que la roca sello, se caracteriza por una alta permeabilidad y porosidad, para albergar grandes cantidades de CO2 sin generar sobrepresiones elevadas.

Las posibilidades del CO2 almacenado

Socialmente, el almacenamiento geológico de carbono no acaba de estar bien aceptado, al menos en algunos países. Existe el efecto NIMBY (no en mi jardín trasero, por sus siglas en inglés), por el que se puede llegar a rechazar el desarrollo de proyectos de este tipo en ciertas zonas. Una posible solución es el almacenamiento en alta mar, como sucede en Noruega, donde llevan 25 años inyectando CO2 con éxito en acuíferos marinos, lo que convierte al país nórdico en líder mundial en almacenamiento de este gas. La manera en que esta tecnología es vista por la sociedad también puede mejorar cuando se aplica al CO2 que se genera en la combustión de biomasa para producir electricidad, ya que de esta forma conseguimos extraer CO2 de la atmósfera, en lo que se conoce como BECCS (por sus siglas en inglés).

Otra estrategia que puede ayudar a mejorar la imagen del almacenamiento geológico de carbono es utilizar el CO2 inyectado de alguna forma, para darle valor y que el proceso no se limite a deshacerse de un residuo. La opción más viable consiste en utilizar el CO2 inyectado para producir energía geotérmica, dado que, por sus propiedades, es un fluido mucho más eficiente que el agua en la extracción del calor de las profundidades de la Tierra. El CO2 inyectado se calienta cuando entra en contacto con la roca almacén, por lo que, si se extrae, se puede aprovechar la alta temperatura que ha adquirido para producir electricidad. Este ciclo es muy eficiente porque apenas se requiere energía para bombear el CO2: como tiende a flotar, sube hasta la superficie por sí solo. El CO2, una vez enfriado después de aprovechar la energía geotérmica, puede reinyectarse junto con más CO2 para su almacenamiento geológico. De esta forma, se reduciría la cantidad de CO2 en la atmósfera y se generaría energía limpia.

El tratamiento del CO2 debe seguir una evolución similar a la que ha tenido la gestión de nuestros residuos domésticos. Antiguamente se desechaban en cualquier parte, que es lo que hacemos ahora con el CO2. Posteriormente se recogían y se llevaban a vertederos, que es lo que se está empezando a hacer con el almacenamiento geológico de carbono. En la actualidad, reciclamos la mayoría de nuestros residuos y solo una fracción pequeña va a parar a los vertederos. En un futuro próximo deberemos hacer lo mismo con el CO2: almacenarlo y utilizarlo para conseguir que el balance neto de emisiones sea cero y así podamos mitigar los efectos del cambio climático.

 

* Víctor Vilarrasa es investigador del Instituto de Diagnóstico Ambiental y Estudios del Agua (IDAEA-CSIC) y del Instituto Mediterráneo de Estudios Avanzados (IMEDEA, CSIC-UIB). Actualmente dirige un proyecto del European Research Council (ERC) para conseguir que los recursos de la Tierra contribuyan a la descarbonización.

Retrata la ciencia a través de tu cámara o microscopio. ¡Participa en FOTCIENCIA18!

Por Mar Gulis (CSIC)

Si te gusta la fotografía, ve sacando tu cámara y… ¡dispara! FOTCIENCIA abre desde hoy el plazo para participar en su 18ª edición. Anímate a descubrir y retratar la ciencia y la tecnología que nos rodean (en casa, en la ciudad, en la naturaleza, en los centros de investigación, etc.) y presenta una imagen junto con un texto que la describa. Puedes ganar hasta 1.500 euros.

Tu fotografía debe estar relacionada con la investigación científica o sus aplicaciones, así que puede reflejar aspectos tan variados como el objeto de estudio de una investigación, las personas que la realizan, su instrumentación e instalaciones o los resultados del avance científico. Es decir, tienes un rango de temáticas prácticamente infinito para plasmar: alimentos, química, biología, materiales, medicina, matemáticas, arquitectura, ciencias sociales… Es hora de captar lo científico que está presente en nuestro día a día y enviar tu propuesta. Tienes de plazo hasta el 14 de octubre de 2021 a las 13:00h (hora española peninsular).

Si tu imagen es de las mejores en alguna de las categorías de FOTCIENCIA recibirás una remuneración. Junto con estas, se seleccionarán otras imágenes de entre las presentadas para formar parte de un catálogo y una exposición itinerante que recorrerá distintas salas y centros culturales de toda España en 2022/2023.

Si eres mayor de edad, puedes participar en una de estas dos modalidades:

  • Fotografía General, cuando la dimensión real del objeto fotografiado sea mayor a 1 milímetro. Es decir, aquí cabrían casi todas las fotografías que no son microscópicas.
  • Fotografía Micro, cuando la dimensión real del objeto fotografiado sea menor o igual a 1 mm o la imagen haya sido obtenida mediante un instrumento de micrografía. Aquí puedes presentar esa imagen impactante de microscopio que, por su belleza, sus patrones o por lo llamativa que quedó, podría estar tanto en un artículo de Nature como en un museo de arte contemporáneo.

Los y las estudiantes de Secundaria y Ciclos Formativos podrán participar en la modalidad La ciencia en el aula. Sus fotografías deberán retratar motivos científicos captados en su centro de estudios e ir acompañadas, al igual que en el resto de modalidades, de un texto explicativo.

Estas son las mejores imágenes de la anterior edición , #FOTCIENCIA17. Puedes ver todos los datos y el resto de seleccionadas, aquí: https://www.fotciencia.es/Publico/Info/__Recursos/CATALOGO_FOTCIENCIA17.pdf

Estas son las mejores imágenes de la anterior edición  (#FOTCIENCIA17). Puedes ver todos los datos, información complementaria y el resto de imágenes que resultaron seleccionadas, aquí: https://www.fotciencia.es/Publico/Info/__Recursos/CATALOGO_FOTCIENCIA17.pdf

Además, las fotografías presentadas a las modalidad General y Micro podrán adscribirse a otras categorías específicas. Entre ellas, FOTCIENCIA18 incorpora la modalidad especial La ciencia frente al COVID para encontrar imágenes que reflejen la importancia crucial que la investigación científica y la tecnología han tenido durante la pandemia. Sin duda, hemos vivido una época que no olvidaremos y en la que se ha puesto de manifiesto que la ciencia y el conocimiento son pilares esenciales para nuestro bienestar social y para combatir todo tipo de enfermedades. Mostremos en imágenes ese trabajo científico.

Las otras dos categorías específicas son las ya habituales: Agricultura sostenible y Alimentación y nutrición, que cuentan con el apoyo del Instituto de Agricultura Sostenible (IAS-CSIC) y del Instituto de Agroquímica y Tecnología de Alimentos (IATA-CSIC), respectivamente.

Las dos mejores imágenes de la modalidad General y las dos mejores de Micro obtendrán una remuneración de 1.500 €. Y cada imagen que resulte la mejor de las otras cuatro modalidades (La ciencia en el aula, La ciencia frente al COVID, Agricultura sostenible, Alimentación y nutrición) recibirá 600 €. Este breve vídeo condensa la información principal:

Suena bien, ¿no? Pues recuerda que la participación se hace de modo digital y que tanto la imagen como el texto que presentes han de ser de tu autoría. Un comité evaluador valorará tanto la imagen –su calidad técnica, originalidad y valor estético– como la claridad de la explicación aportada por el autor o autora.

Si quieres inspiración, o simplemente disfrutar de las selecciones anteriores, entra aquí y descubre las imágenes de ediciones pasadas. O, aún mejor, consulta el calendario de exposiciones por si puedes visitar in situ la muestra de la pasada edición (FOTCIENCIA17). También puedes escuchar los textos que acompañaban a las imágenes de la muestra aquí.

Un año más, FOTCIENCIA se suma a los Objetivos de Desarrollo Sostenible (ODS) declarados por Naciones Unidas, por lo que, en el formulario de participación, cada autor o autora deberá adscribir su imagen a uno de los 17 ODS. Puedes consultar las normas completas de participación en la web: www.fotciencia.es

FOTCIENCIA es una iniciativa organizada por el Consejo Superior de Investigaciones Científicas (CSIC) y la Fundación Española para la Ciencia y la Tecnología (FECYT), con la colaboración de la Fundación Jesús Serra.

La dicotomía marciana. ¿Por qué Marte tiene dos hemisferios radicalmente distintos?

Por Juan Ángel Vaquerizo (CSIC-INTA)*

Marte tiene dos caras: el hemisferio norte está hundido, es una zona deprimida y muy lisa que presenta pocos impactos de meteoritos, mientras que el hemisferio sur está sobreelevado respecto al norte y está plagado de cráteres. Esta diferencia es lo que se conoce como dicotomía marciana. La disparidad entre hemisferios es una de las singularidades de nuestro vecino que ha despertado más curiosidad y, por ende, ha sido motivo de estudio desde su descubrimiento. Y aún sigue siéndolo, porque no existe consenso sobre el origen de esta característica fundamental del planeta, que refleja la historia geológica del mismo y también la posible presencia de agua en el pasado.

Mapa topográfico de Marte. / NASA/JPL

Mapa topográfico de Marte. / NASA/JPL

Desde los años sesenta del siglo XX, la exploración planetaria ha permitido aumentar el conocimiento sobre la geología y geografía marcianas –la geografía de Marte se conoce con el nombre de areografía, término proveniente de Ares (equivalente griego al dios romano Marte), y consiste en la caracterización y cartografiado de las regiones de Marte-. Gracias a las naves espaciales que han sobrevolado u orbitado el planeta, tenemos en la actualidad un gran conocimiento sobre sus accidentes geográficos y sus características superficiales: volcanes, cañones, antiguos lechos de río, canales de descarga y vastas regiones salpicadas de cráteres. Todos estos elementos permiten establecer los diferentes procesos geológicos que han tenido lugar a lo largo del tiempo, modelando el planeta rojo a escala global: vulcanismo, actividad tectónica, acción del agua líquida y del hielo y, claro está, impactos de meteoritos.

Para poder cartografiar la superficie de Marte, y en consecuencia las elevaciones del planeta, se definió un nivel de elevación cero o datum. Con el agua en mente, el datum marciano se define como la elevación en la que se alcanzan los valores de presión y temperatura del punto triple del agua, es decir, aquellos para los que el agua puede estar simultáneamente en los tres estados: sólido, líquido y gaseoso. Estos valores son una presión atmosférica de 610,5 Pa (6,1173 mb) y una temperatura de 273,16 K (0,01 oC). Para hacerse una idea, la cuenca más profunda de Marte y una de las mayores del Sistema Solar, Hellas Planitia, está muy por debajo del datum marciano y se encuentra a más de 7 kilómetros de profundidad.

Cráteres en Hellas Planitia. / ESA/DLR/FU Berlín

Cráteres en Hellas Planitia. / ESA/DLR/FU Berlín

Pero el descubrimiento de la dicotomía marciana llega con los primeros mapas completos del planeta. Entre 1998 y 1999 el instrumento Mars Orbiter Laser Altimeter (MOLA), un altímetro láser a bordo de la nave Mars Global Surveyor de la NASA, generó el mapa topográfico más preciso jamás realizado. MOLA recolectaba al día en torno a 900.000 medidas de elevación con una sensibilidad tan alta que el rango de error en elevación, de media, era de tan solo 13 metros. Con toda esta información -en total se utilizaron 27 millones de medidas de elevación recopiladas por el instrumento para conformar el mapa global-, se observó que la dicotomía de Marte tiene tres expresiones físicas globales:

Topografía de Marte

La parte norte del planeta es una inmensa depresión respecto a la parte sur. La dicotomía distingue entre las denominadas tierras altas (uplands) del sur y las tierras bajas (lowlands) del norte. Los datos altimétricos muestran que las tierras bajas son entre 3 y 6 km más bajas que las tierras altas del sur. Esta característica del relieve marciano recuerda la diferencia de elevación entre los continentes y los fondos oceánicos de la Tierra.

Densidad de cráteres de impacto

También existe una acusada diferencia en la densidad de cráteres de impacto, mucho menos numerosos en las tierras bajas del norte. En el hemisferio sur aparecen regiones plagadas de grandes cráteres y caracterizadas por superficies abruptas. En contraste, las lowlands situadas al norte presentan pocos cráteres grandes, su suelo es muy llano y muestran otros tipos de elementos que indican que han ocurrido extensos procesos de renovación de su superficie, como coladas de lava y grandes inundaciones.

Grosor de la corteza

Existe además una gran diferencia en el grosor de la corteza entre los dos hemisferios, mayor en las tierras altas del sur que en las tierras bajas del norte. Las uplands del sur tienen un grosor máximo aproximado de 58 km, mientras que las lowlands del norte apenas alcanzan los 32 km de grosor.

Estas tres manifestaciones físicas de la dicotomía no coinciden exactamente, de modo que no es posible trazar una frontera exacta de separación ni asegurar que todas ellas se deban a una misma causa. No obstante, se considera que el origen de la dicotomía es único y que produjo como resultado los tres aspectos observados. Asimismo, hay bastante acuerdo en que la dicotomía de Marte parece ser extremadamente antigua, que se originó en una etapa muy temprana del planeta, al comienzo de la evolución geológica de Marte, cuando la corteza estaba recién formada o terminando de formarse.

Mapas topográficos de relieve sombreado de muy alta resolución producidos por el equipo científico de MOLA. / NASA/MOLA

Mapas topográficos de relieve sombreado de muy alta resolución producidos por el equipo científico de MOLA. / NASA/MOLA

En la actualidad hay dos posibles hipótesis sobre el origen de la dicotomía: una endógena y otra exógena. La endógena establece que la dicotomía es el resultado de procesos convectivos asimétricos en el manto de Marte que produjeron el adelgazamiento de la corteza en la parte norte del planeta y un engrosamiento en el sur. La otra explicación, la exógena, parece contar con un mayor consenso y establece que la dicotomía es el resultado de un impacto gigantesco. Un impacto en Marte de un objeto de entre 1.600 y 2.700 km de tamaño -como los que existían en el Sistema Solar en la época estimada- habría sido capaz de crear una cuenca de impacto tan grande como Vastitas Borealis, nombre con el que se conoce a la inmensa llanura del hemisferio norte. El tamaño de esta zona, de 10.600 km de longitud y 8.500 km de anchura (Asia, Europa y Australia juntas), y su forma elíptica hacen plausible que sea el resultado de un gran impacto. Pero, por ahora, ese gran impacto es solo una hipótesis.

 

 

* Juan Ángel Vaquerizo es el responsable de la Unidad de Cultura Científica del Centro de Astrobiología (CSIC-INTA) y autor del libro Marte y el enigma de la vida (CSIC-Catarata) de la colección ¿Qué sabemos de?

Los riesgos del teletrabajo: ¿es seguro trabajar en la red?

Por David Arroyo, Víctor Gayoso y Luis Hernández (CSIC)*

El confinamiento ha sido uno de los principales elementos de contención de la COVID-19 desde el inicio de la crisis pandémica. Para mantener la actividad laboral y educativa ha sido necesario desplegar un conjunto de soluciones tecnológicas que han hecho que el teletrabajo y la enseñanza online cobren un peso muy significativo en nuestra sociedad. Así, por ejemplo, se ha estimado que entre marzo y septiembre de 2020 hubo un incremento del 84% en el uso de herramientas de teletrabajo. En paralelo, sin embargo, también han proliferado los ciberataques y los cibercrímenes: a lo largo de 2020, se estima que hubo un incremento del 6.000% en ataques por spam, ransomware (programas de secuestro de datos) y phishing (suplantación de la identidad de un tercero –persona, empresa o servicio– para que un usuario proporcione datos confidenciales creyendo que trata con un interlocutor de confianza).

Un ejemplo de los riesgos que trae consigo el teletrabajo es el de las aplicaciones de videoconferencia, como Zoom, Skype o Teams, que nos han permitido seguir manteniendo reuniones. El uso de herramientas como estas, desarrolladas por terceros, puede hacer mucho más vulnerable la seguridad de la información intercambiada; sobre todo, cuando se recurre a ellas con urgencia y no son debidamente auditadas y verificadas.

La amenaza del espionaje afecta también a las reuniones presenciales, pero acceder maliciosamente a la información que se comparte en estos encuentros supone que los atacantes pongan en marcha procedimientos y técnicas de alto coste y específicos para cada situación. En el caso de las videoconferencias, si existen vulnerabilidades de seguridad en una aplicación, todas las reuniones celebradas usando ese software estarán afectadas por un riesgo de interceptación de la información intercambiada. Esto es, existiría una vulnerabilidad matriz que puede ser explotada de modo generalizado.

El software que se emplea en videoconferencias solo es una pieza dentro del complejo del teletrabajo, que constituye un verdadero reto para las políticas de ciberseguridad. Lo es en situaciones de normalidad, pero mucho más en escenarios de crisis similares al deparado por la COVID-19. En este contexto, el teletrabajo se ha adoptado en la mayor parte de los casos de modo improvisado, sin una política de seguridad previamente definida y debidamente evaluada. Baste mencionar como ejemplo de ello los recientes ataques contra el Servicio Público de Empleo Estatal (SEPE) y el Ayuntamiento de Castellón, o los mensajes fraudulentos relacionados con el ofrecimiento de servicios a domicilio para la vacunación contra la COVID-19.

Ciberhigiene y ciberseguridad

Sin duda, es deseable que todas las personas que teletrabajan sigan unas buenas prácticas de ciberhigiene, como evitar la instalación de software no recomendado por los responsables de cibersegu­ridad, no conectarse a redes wifi públicas o no responder correos sospechosos de phishing. Ahora bien, una buena política de seguridad no asume sin más que esas normas de ciberhigiene se vayan a cumplir, sino que establece mecanismos de control para salvaguardar la seguridad, o al menos paliar las consecuencias de posibles ataques, en caso de incumplimiento.

Pues bien, en la crisis de la COVID-19 el teletrabajo se ha desplegado, en muchos casos, sin que las plantillas tengan arraigada esa disciplina de ciberhigiene y sin que su empresa haya diseñado una política de seguridad adecuada. Es más, en muchas situaciones los teletrabajadores han tenido que utilizar ordenadores y dispositivos propios. Dada la situación de confinamiento generalizado y la limitación de recursos tecnológicos en el hogar, es de suponer que en muchos domicilios los ordenadores han sido compartidos entre varios integrantes de la unidad familiar. Esta práctica tiene que ser considerada como un riesgo de seguridad adicional, ya que cada miembro del hogar tiene, a priori, una cultura de ciberseguridad distinta y usa la tecnología para objetivos diferentes.

Por ello, es preciso formar de modo adecuado a las personas que potencialmente van a teletrabajar para que tomen conciencia de los riesgos de ciberseguridad asociados a entornos de trabajo fuera del perímetro de seguridad de su empresa. En este sentido, sería de alto interés la planificación de simulacros y ciberejercicios en los que la interacción con las personas responsables de la ciberseguridad permitiera fortalecer rutinas de ciberhigiene, así como establecer pautas para la resolución de problemas de seguridad con el apoyo telemático de especialistas.

Si se ejecutan de modo correcto y de forma regular, estos ejercicios pueden servir para disminuir el impacto de los ciberataques al mejorar las competencias tecnológicas de la plantilla y la gestión de factores psicológicos que pueden ser explotados por ciberatacantes en periodos de crisis. Es el caso del estrés, la ansiedad o la falta de concentración motivada por las distracciones que se dan en un entorno distinto del laboral. Aquí conviene tener presente que la cadena de ataque habitual incluye estrategias de ingeniería social y phishing mediante las que los usuarios pueden bajar la guardia e instalar software sin evaluación de seguridad, acceder a sitios web asociados a campañas de malware y ser víctimas de robo de información o de ciberacoso.

Fomentar una cultura de ciberseguridad y ciberresiliencia puede y debe contribuir a reducir el impacto de estos ataques en posibles crisis futuras.

* David Arroyo, Víctor Gayoso y Luis Hernández son investigadores del CSIC en el Instituto de Tecnologías Físicas y de la Información “Leonardo Torres Quevedo” y autores del libro Ciberseguridad (CSIC-Catarata). Este post es un extracto del mismo.

Cinco pinturas contemporáneas que hablan mucho de ciencia

Por Mar Gulis (CSIC)

Este próximo jueves, 25 de marzo, el Museo Nacional de Ciencias Naturales (MNCN-CSIC) inaugura la exposición Arte y ciencia del siglo XXI. La muestra reúne obras de 35 artistas contemporáneos que trabajan en España: 66 cuadros y 11 esculturas figurativas que el Museo ha puesto a dialogar con la ciencia de hoy. ¿Cómo? Conectando el tema de cada obra con una línea de investigación del Consejo Superior de Investigaciones Científicas, como la alimentación, el envejecimiento, el calentamiento global, la evolución humana o la desigualdad de género. Si quieres ir abriendo boca, aquí tienes algunos de los cuadros que encontrarás en la exposición.

Egg IV

En la muestra, este óleo hiperrealista de Pedro Campos sirve para introducir la investigación en alimentos funcionales de Marta Miguel. Los compuestos bioactivos presentes en alimentos como el huevo son utilizados por esta especialista del Instituto de Investigación en Ciencias de la Alimentación (CSIC-UAM) para elaborar productos que mejoren nuestro metabolismo y prevengan enfermedades relacionadas con nuestro estilo de vida o la malnutrición.

Juanito

La nitidez y definición de esta obra son abrumadoras. Se trata de una pintura al óleo en la que José Luis Corella retrata a un hombre con alzhéimer. Esta enfermedad, cada vez más común entre nuestros mayores, impide generar nuevas neuronas a quienes la padecen. En la exposición, el cuadro nos conduce hasta el Centro de Biología Molecular Severo Ochoa (CSIC-UAM), donde María Llorens estudia la neurogénesis adulta en humanos y modelos animales para diseñar terapias que permitan retrasar o disminuir los síntomas del alzhéimer.

El escondite

¿Qué nos distingue verdaderamente de los simios? Este óleo de Arantzazu Martínez suscita una pregunta fundamental a la que tratan de responder investigadores como Antonio Rosas, del MNCN-CSIC. La respuesta está relacionada con el bipedismo, que libera las manos y las convierte en herramientas de precisión, y con el posterior incremento de la capacidad cerebral. Sin embargo, aún nos queda mucho por saber sobre cómo, cuándo y por qué nuestros ancestros modificaron su anatomía y sus modos de vida. Eso nos permitirá entender mejor de dónde venimos, pero también a dónde vamos como especie.

Patio

La subida del nivel del mar provocada por el calentamiento global es evocada en esta imagen onírica, pintada al óleo por Santos Hu. La obra da pie al investigador del MNCN-CSIC David Vieites, comisario de la exposición, a hablar del impacto del cambio global en el modo de vida de millones de personas o de la pérdida de biodiversidad. De este modo, el cuadro nos lleva hasta los centros del CSIC que estudian estos fenómenos y las medidas que hacen falta para prevenirlos y remediarlos.

La labor invisible

La pintora Carmen Mansilla denuncia en este óleo elaborado ex profeso para la exposición que las artes y las ciencias han compartido a lo largo de los siglos la exclusión de las mujeres. Científicas y artistas quedaron ocultas y sus nombres empiezan a conocerse y valorarse en su justa medida con los estudios de género. El Museo destaca que investigadoras como la física Pilar López Sancho –impulsora de la Comisión Mujeres y Ciencia del CSIC– lideran el cambio hacia una mayor participación de las mujeres en ciencia y tecnología.

Viajar en avión, ¿cómo afecta a la calidad del aire?

Por Mar Gulis (CSIC)

¿Cuándo fue la última vez que viajaste en avión? Es posible que tu respuesta se remonte a casi un año (o más) por la situación en la que nos encontramos, pero ahora piensa cuántos vuelos realizaste antes… En 2019, por los aeropuertos españoles pasaron 275,36 millones de pasajeros y las aerolíneas españolas movieron a 113,83 millones de personas, el 41,4% del tráfico total, según datos del Ministerio de Transportes, Movilidad y Agenda Urbana. Además, como recoge AENA, España recibió 83,7 millones de turistas internacionales, 900 mil más que el año anterior, y de ellos el 82% (más de 68,6 millones) utilizaron el avión como medio de transporte.

¿Sabes lo que suponen estas cifras en contaminación? En este sentido, un estudio de la revista Global Environmental Change estima que “un 1% de la población del mundo es responsable de más de la mitad de las emisiones de la aviación de pasajeros que causan el calentamiento del planeta”.

Un avión puede llegar a emitir hasta veinte veces más dióxido de carbono (CO2) por kilómetro y pasajero que un tren.

Un motor de avión emite principalmente agua y dióxido de carbono (CO2). Sin embargo, dentro de él tiene lugar un proceso de combustión a muy alta temperatura de los gases emitidos, lo que provoca reacciones atmosféricas que a su vez producen otros gases de efecto invernadero, como el óxido de nitrógeno (NO). Por ello, el Grupo Intergubernamental de Expertos sobre el Cambio Climático (IPCC) estima que el efecto invernadero de los aviones es unas cuatro veces superior al del CO2 que emiten. Según Antonio García-Olivares, investigador del CSIC en el Instituto de Ciencias del Mar (CSIC), esto eleva el efecto global de los aviones a aproximadamente la mitad del efecto del tráfico global de vehículos.

¿Cuándo contamina más?

Un avión puede llegar a emitir hasta veinte veces más dióxido de carbono (CO2) por kilómetro y pasajero que un tren. Según un estudio de la Agencia Europea del Medio Ambiente de 2014, el tráfico aéreo es el que mayores emisiones produce (244,1 gramos por cada pasajero-km), seguido del tráfico naval (240,3 g/pkm), el transporte por carretera (101,6 g/pkm) y el ferroviario (28,4 g/pkm).

“Esto es, el transporte por avión y por barco emiten en la Unión Europea más del doble de CO2 por pasajero-km que el transporte por carretera, y el transporte por tren es casi 4 veces más limpio que por carretera, y casi 9 veces más limpio que el transporte por avión”, comenta Antonio García-Olivares.

El CO2 y el resto de gases que emite la aviación se añaden a la contaminación atmosférica “que afecta a la salud humana solo en los momentos de despegue, y en menor grado, en el aterrizaje”, señala el investigador. Durante la mayor parte del viaje, el avión vuela en alturas donde al aire está estratificado (en capas) y la turbulencia vertical es mínima. Esto hace que la difusión de los contaminantes hacia la superficie terrestre sea prácticamente nula. Pero, “los contaminantes permanecen en altura, donde sufren distintas reacciones fotoquímicas, contribuyendo algunos de ellos al efecto invernadero”, añade.

En cualquier caso, el tráfico aéreo también incide en el aire que respiramos. En los aeropuertos no solo los aviones emiten gases contaminantes, sino también otros medios de transporte como los taxis, los autobuses y los vehículos de recarga, que en su mayoría son diésel. Al quemar combustible y rozar sus ruedas con el suelo, todos ellos liberan partículas ultrafinas a la atmósfera consideradas potencialmente peligrosas para la salud, explica Xavier Querol, del Instituto de Diagnóstico Ambiental y Estudios del Agua del CSIC.

El grado en que estas emisiones aumentan los niveles de partículas contaminantes en una ciudad, dependerá de la distancia del aeropuerto con respecto al núcleo de población y al urbanismo. En grandes ciudades con altos edificios (streetcanions), la dispersión es muy mala y el impacto en la exposición humana es mayor que en otras; a diferencia de lo que suele ocurrir en un aeropuerto, donde las emisiones se pueden dispersar y contaminar menos, indica Querol.

En grandes ciudades con altos edificios (streetcanions), la dispersión es muy mala y el impacto en la exposición humana es mayor.

¿Sería posible viajar en avión sin contaminar?

“La tendencia del tráfico aéreo es a crecer en las próximas décadas un 30% más que en la actualidad, pero en la presente década es probable que la producción de petróleo y líquidos derivados del petróleo comiencen a declinar. Ello, unido a la posible presión legislativa por disminuir el impacto climático, podría frenar esa tendencia al crecimiento del tráfico aéreo”, reflexiona Antonio García-Olivares.

Un estudio en el que ha participado el investigador concluye que, si la economía fuese 100% renovable, el coste energético de producir metano o combustibles de aviación a partir de electricidad y CO2 sería mucho más elevado que en la actualidad y desencadenaría una fuerte subida de los precios de los viajes en avión y, por tanto, una reducción del transporte aéreo hacia valores en torno al 50% de los actuales.

Reducir la contaminación implica, como resume el investigador del CSIC en el Instituto de Ciencias del Mar Jordi Solé, cambiar los modos y la logística del transporte, así como reducir su volumen y la velocidad (cuanto más rápido vamos, más energía consumimos y más contaminamos). “La navegación aérea a gran escala y el transporte en general se tienen que rediseñar en un sistema con cero emisiones; por tanto, el transporte aéreo tiene que estar armonizado en un modelo acorde con un sistema socio-económico diferentes y, por supuesto, ambiental y ecológicamente sostenible”, concluye Solé.

¿Cómo se mide el tiempo en Marte?

Por Juan Ángel Vaquerizo (CSIC-INTA)*

La respuesta, a priori, es sencilla: en Marte, el tiempo se mide utilizando el Sol. El segundo planeta más pequeño del Sistema Solar y cuarto en cercanía al Sol gira en torno a su eje con un periodo de 24,6 horas, lo que supone que el día solar marciano es aproximadamente un 3% más largo que el día solar terrestre. En concreto, un día en Marte tiene una duración de 24 horas, 39 minutos y 32,55 segundos, lo que se denomina sol.

Amanecer en Marte. / NASA/JPL-Caltech/Doug Ellison/PIA 14293

Amanecer en Marte. / NASA/JPL-Caltech/Doug Ellison/PIA 14293

En la superficie de Marte se utiliza la hora solar local para la medida del tiempo de las misiones que han aterrizado allí. Cada misión tiene su propio tiempo solar local, que estará determinado por su ubicación en el planeta. A pesar de que Marte dispone de un meridiano cero para referir las longitudes geográficas, no tiene zonas horarias definidas a partir de ese meridiano como ocurre en la Tierra. Por tanto, la separación en longitud geográfica de las misiones entre sí determinará la diferencia horaria entre las mismas.

Para determinar el calendario marciano hubo más controversia. Sin embargo, para el día a día de las misiones que han aterrizado en Marte, se ha optado por un criterio más simple: contar los días (soles) en Marte a partir del momento del aterrizaje, que pasa a denominarse sol 0. Por ejemplo, la misión InSight de la NASA (que, por cierto, contiene un instrumento español desarrollado en el Centro de Astrobiología (CSIC-INTA): los sensores mediambientales TWINS) ha sido la última en aterrizar sobre la superficie marciana. Lo hizo el 26 de noviembre de 2018, lo que supone que la nave pasa en Marte hoy su sol 784.

InSight en la superficie marciana. / NASA/JPL-Caltech

InSight en la superficie marciana. / NASA/JPL-Caltech

Las estaciones en el planeta rojo

Del mismo modo que un sol en Marte dura más que un día en la Tierra, la duración del año marciano es también mayor que el terrestre, pues al estar más alejado, describe su órbita alrededor del Sol más lentamente que la Tierra. Un año marciano tiene 668,6 soles, lo que equivale a 687 días terrestres. Esta mayor duración del año hace que las estaciones en Marte sean más largas que las terrestres.

Entonces, ¿hay también estaciones en Marte? Pues sí, en Marte se producen estaciones a lo largo del año debido a que el eje de rotación de Marte también está inclinado respecto al plano de la eclíptica (el plano imaginario en el que los planetas del Sistema Solar giran alrededor del Sol). Esta inclinación del eje, conocida como oblicuidad, es de 25,2° en Marte, un poco mayor que los 23,4393° de la Tierra. Además, la órbita de Marte es más excéntrica que la terrestre.

La órbita más elíptica de Marte provoca que sus estaciones tengan duraciones muy diferentes entre sí, de manera que las primaveras marcianas en el hemisferio norte y los otoños en el hemisferio sur duran 194 soles, siendo así las estaciones más largas. Las estaciones más cortas en Marte son los otoños en el hemisferio norte y las primaveras en el sur, con una duración de solo 142 soles. Los inviernos en el hemisferio norte y los veranos en el sur duran 154 soles; y, finalmente, los veranos en el hemisferio norte y los inviernos en el sur duran 178 soles.

A vueltas con el calendario marciano

Pero, ¿qué ocurre con el calendario marciano? En la Tierra los meses vienen determinados por el ciclo lunar, pero Marte tiene dos lunas, los dos satélites naturales llamados Fobos y Deimos. Como curiosidad, las lunas del planeta vecino reciben sus nombres de la mitología griega: Fobos significa ‘miedo’ y Deimos ‘terror’, y son los nombres de los caballos que tiraban del carro de Ares, el dios griego de la guerra, equivalente al dios romano Marte.

Captura de parte de la órbita que realiza Fobos alrededor de Marte. / NASA, ESA y Z. Levay (STScl)

Captura de parte de la órbita que realiza Fobos alrededor de Marte. / NASA, ESA y Z. Levay (STScl)

Los periodos de Fobos y Deimos son muy cortos, por lo que utilizar el mismo sistema que en la Tierra resulta inútil. Por ello, se eligió dividir el año en segmentos más o menos similares, más largos que nuestros meses, que cubrieran todo el periodo orbital. Los astrónomos Percival Lowell, Andrew E. Douglass y William H. Pickering, Robert G. Aitken y sir Patrick Moore diseñaron calendarios marcianos con mayor o menor suerte, pero no fue hasta 1986 cuando el ingeniero norteamericano Thomas Gangale publicó el calendario dariano, llamado así en honor a su hijo Darius.

En el calendario dariano, el año marciano se divide en 24 meses para acomodarlo manteniendo la noción de un “mes” razonablemente similar a la duración de un mes de la Tierra. El año cero del calendario se situó inicialmente en 1975, año del primer aterrizaje con éxito en la superficie de Marte de una nave estadounidense, con las misiones Viking. Más tarde, se definió como nuevo año cero para el calendario el año 1609, como doble homenaje a la publicación de las leyes de Kepler y la primera observación con un telescopio realizada por Galileo.

MY (martian year) y Ls (longitud planetocéntrica)

La Planetary Society decidió finalmente no emplear un calendario como tal, sino utilizar la longitud planetocéntrica del Sol, conocida como Ls (ángulo que indica la posición de Marte en su órbita alrededor del Sol), para medir la época del año en Marte y que funcionaría a modo de fecha marciana. Así, el valor Ls = 0° corresponde al paso de Marte por el punto vernal, es decir, el equinoccio de primavera en el hemisferio norte marciano; el valor 90° corresponde al solsticio de verano boreal; 180° al equinoccio de otoño boreal y 270° al solsticio de invierno boreal.

En este calendario, el año marciano 1 o MY1 (por sus siglas en inglés) comenzó oficialmente el día 11 de abril de 1955 a las 00:00 h UTC y terminó el 26 de febrero de 1957 a las 00:00 h UTC. El motivo de elegir esta fecha fue hacer coincidir el comienzo del calendario con la tormenta global de polvo que se observó en Marte en 1956. El comienzo de la estación de tormentas de polvo en Marte se produce justo después del paso por el perihelio, el punto de la órbita más cercana al Sol y donde más rápido se desplaza, sobre Ls = 260°.

Posteriormente, el calendario se extendió y se determinó el año marciano 0, MY0, que comenzó el día 24 de mayo de 1953 a las 00:00 h UTC. Cualquier año anterior llevaría delante el signo menos. Por tanto, MY-1 comenzó el 7 de julio de 1951, el MY-2 el 19 de agosto de 1949, y así sucesivamente. Como curiosidad, la primera observación conocida de Marte con un telescopio, realizada por Galileo a finales del año 1610, correspondería al MY-183.

El róver Curiosity en Marte. / NASA/JPL-Caltech/MSSS

El róver Curiosity en Marte. / NASA/JPL-Caltech/MSSS

Así pues, con este criterio de designación de fechas, el róver Curiosity (que lleva a bordo el otro instrumento español en Marte: REMS, la estación medioambiental también del Centro de Astrobiología) aterrizó en Marte el MY31 Ls150, es decir, el 6 de agosto de 2012. Y por su parte, InSight el MY35 Ls112.

Sea cual fuere el modo de medir el tiempo en Marte, dado que la idea de enviar seres humanos a explorar Marte es ya un proyecto consolidado, no estaría de más ir buscando un criterio unificado. No vaya a ser que el primer ser humano que ponga el pie en Marte no sepa cómo poner su reloj en hora.

 

* Juan Ángel Vaquerizo es el responsable de la Unidad de Cultura Científica del Centro de Astrobiología (CSIC-INTA) y autor del libro ‘Marte y el enigma de la vida’ (CSIC-Catarata) de la colección ¿Qué sabemos de?

Ojo al ‘data’: un paseo filosófico por las nubes digitales

Por Txetxu Ausín (CSIC)*

Las nubes son la exitosa metáfora para referirnos a la nueva realidad digital en la que vivimos. Una realidad configurada por las redes sociales, la inteligencia artificial y la analítica de los datos masivos o big data que se recogen en la interacción e interconexión creciente de humanos, artefactos e instrumentos que registran, procesan y reutilizan enormes cantidades de información. Las nubes parecen blancas, etéreas, inofensivas, pero están reconfigurando radicalmente nuestro mundo y nuestras relaciones; por ello son tecnologías disruptivas, que impulsan transformaciones radicales y a gran velocidad en esta nueva era de los humanos llamada Antropoceno. Cada vez más nos configuramos como sistemas sociotécnicos donde todas nuestras interrelaciones están mediadas tecnológicamente; mantenemos una interacción física, cognitiva y hasta emocional con la tecnología, difuminándose las fronteras entre sujetos humanos y artefactos.

Les invito a dar un paseo por las nubes, a pensar este nuevo ecosistema digital de la mano de la filosofía, para indagar y preguntarnos por su esencia, por la concepción del ser humano que entrañan, por el tipo de conocimiento que generan, por su impacto medioambiental, por su ética y su política.

Ilustración de Irene Cuesta (CSIC).

Empecemos por la realidad de los datos

Los datos están en todas partes (“data is all around”), son ubicuos, de modo que se está produciendo una ‘datificación’ de la vida, una representación digital de la realidad, una ontología de datos donde se pretende poner en un formato cuantificado todo, para que pueda ser medido, registrado y analizado. Es decir, todo se transforma en información cuantificable. Así que el tamaño importa, ya que, cambiando el volumen y la cantidad de datos manejados, se está cambiando en cierto modo la esencia de la realidad.

Esta antigua búsqueda de la humanidad se desarrolla hoy exponencialmente por medio de la digitalización y los sistemas de Tecnologías de la Información y la Comunicación (TIC). Se cuantifica el espacio (geolocalización), se cuantifican las interacciones humanas y todos los elementos intangibles de nuestra vida cotidiana (pensamientos, estados de ánimo, comportamiento) a través de las redes sociales, se ha convertido el cuerpo humano en una plataforma tecnológica y se monitorizan los actos más esenciales de la vida (sueño, actividad física, presión sanguínea, respiración…) mediante dispositivos médicos, prendas de vestir, píldoras digitales, relojes inteligentes, prótesis y tecnologías biométricas, en espacios públicos y privados (lo que se conoce como ‘internet de los cuerpos‘). Se datifica todo lo que nos rodea mediante la incrustación de chips, sensores y módulos de comunicación en todos los objetos cotidianos (‘internet de las cosas‘).

Si pensamos en términos ontológicos, no son ya los átomos sino la información la base de todo lo que es (‘internet del todo‘). Un universo compuesto esencialmente de información (infosfera). Una nueva perspectiva de la realidad, del mundo, como datos que pueden ser explorados y explotados. Además, la llamada ideología del ‘dataísmo’ es una nueva narrativa universal que regula nuestra vida y que viene legitimada por la autoridad de los datos masivos: el universo consiste en flujos de datos y el valor de cualquier fenómeno social o entidad está determinado por su contribución al procesamiento de datos. Y esto no es una teoría científicamente neutral porque pretende determinar lo que está bien y está mal con relación a un valor supremo, el flujo de información: será bueno aquello que contribuya a difundir y profundizar el flujo de información en el universo y malo, lo contrario; la herejía es desconectarse del flujo de datos.

     Ilustración de Irene Cuesta (CSIC).

El ser humano de la realidad de los datos

Dicho lo anterior, este paseo nos lleva a la antropología, a la concepción de ser humano y de su identidad que encierran las nubes. Se datifican todos los aspectos de nuestra vida (yo-cuantificado) y, no solo eso, se otorga un valor comercial a esa datificación, de modo que nuestras actividades nos definen como un objeto mercantil (somos el producto). Eso conduce a una constante optimización de uno mismo, donde el tiempo libre se vive igual que el tiempo de trabajo y está atravesado por las mismas técnicas de evaluación, calificación y aumento de la efectividad. Se da una progresiva desaparición de lo privado y una servidumbre voluntaria con relación a las nubes y la ‘mano invisible’ del flujo de datos. El concepto de rendimiento se refiere ya a la vida en su totalidad (24/7) en lo que se ha llamado ‘economía de la atención’ y ‘capitalismo de vigilancia’.

Filosofía del conocimiento

No es más halagüeña la perspectiva desde la filosofía del conocimiento o epistemología. Es cierto que la digitalización ofrece oportunidades de alfabetización científica, de creación de reservas epistémicas, de nuevos espacios formativos y de mayor transparencia y rendición de cuentas de las administraciones, favoreciendo la participación y el compromiso ciudadano con las políticas públicas. Además, las nubes de sanidad digital, educación online o mercados transforman las sociedades de países empobrecidos y contribuyen a la realización de los Objetivos de Desarrollo Sostenible. Sin embargo, la analítica de big data está transformando el método científico privilegiando las correlaciones frente a la causalidad como modelo explicativo de la realidad —recuérdese que una correlación es un vínculo o relación recíproca entre varias cosas—. No obstante, el hecho de que dos eventos se den habitualmente a la vez o de manera consecutiva no implica que uno sea la causa de otro. El big data establece correlaciones muy fuertes entre diferentes eventos o informaciones, pero eso no significa automáticamente que unos constituyan la causa o el origen de los otros, que serían su efecto.

Y aunque el big data se ha planteado como la panacea para la toma de decisiones más acertada, imparcial y eficiente, que evitaría los errores humanos y garantizaría un conocimiento más fiable, ha obviado algo básico, los sesgos. Esto es, los prejuicios y variables ocultas a la hora de procesar la información, las tendencias y predisposiciones a percibir de un modo distorsionado la realidad —sesgos que no desaparecen nunca aumentando el tamaño de la muestra y que están implícitos en los datos o en el algoritmo que los maneja—. Además, disponer de más datos no implica automáticamente un mayor y mejor conocimiento. Tener ingentes cantidades de datos puede conducir a la confusión y al ruido, los datos no son siempre información significativa, y los algoritmos son tremendamente conservadores porque reflejan lo que hay, lo dado, el prejuicio subyacente en la sociedad, escamoteando la discusión acerca de qué valores son preferibles, sin ninguna ambición transformadora. Los algoritmos, que no son sino un conjunto de pasos ordenados empleados para resolver un problema o alcanzar un fin (una codificación de medios y fines), se presentan bajo una apariencia de neutralidad, pero no dejan de ser opiniones encapsuladas.

Ilustración de Irene Cuesta (CSIC).

Ética y ecoética

Ligado a lo anterior, si hablamos de responsabilidad y ética, las nubes digitales presentan riesgos morales importantes en términos de daños a los individuos y a la sociedad:

  • Discriminación por sobrerrepresentación de personas con ciertas características y exclusión de otras; un asunto vinculado a los sesgos, como la discriminación de género o racial. Por ejemplo, las mujeres tienen menos posibilidades de recibir anuncios de trabajo en Google y el primer certamen de belleza juzgado por un ordenador colocó a una única persona de piel oscura entre los 44 vencedores, como señala Cathy O’Neil en Armas de destrucción matemática.
  • Dictadura de datos (políticas predictivas), donde ya no somos juzgados sobre la base de nuestras acciones reales, sino sobre la base de lo que los datos indiquen que serán nuestras acciones y situaciones probables (enfermedades, conductas…).
  • Perfilamiento (configuración de un ‘perfil de riesgo’) y estigmatización, cuando se define y manipula nuestra identidad, invadiéndose la privacidad y espacios íntimos incluso a nivel cognitivo-conductual y emocional.

Pero estas nubes digitales, desde una perspectiva medioambiental y ecoética, tampoco responden a la ‘desmaterialización’ de la economía que prometen. Por un lado, la fabricación de redes y productos electrónicos supera con creces la de otros bienes de consumo en términos de materias primas. Por ejemplo, el gasto en combustibles fósiles utilizados en la fabricación de un ordenador de sobremesa supera 100 veces su propio peso mientras que para un coche o una nevera la relación entre ambos pesos (de los combustibles fósiles usados en su fabricación y del producto en sí) es prácticamente de uno a uno. Por otro lado, los grandes centros de computación y de almacenamiento de datos en la nube requieren enormes cantidades de energía y tienen una alta huella por emisiones de CO2, con un impacto medioambiental muy elevado. El consumo eléctrico es tan grande que las emisiones de carbono asociadas son ingentes, como denuncia el movimiento Green Artificial Intelligence.

   Ilustración de Irene Cuesta (CSIC).

Propiedad y poder

Y es que, para terminar con una reflexión propia de la filosofía política, la que se refiere a la propiedad y al poder, hay que recordar que las nubes digitales son los ordenadores de otros, de esos gigantes tecnológicos, “señores feudales del aire”, como los llama Javier Echeverría, que dominan esta nueva realidad de la internet del todo. Además, las tecnologías digitales, las nubes, modulan la política a través de la manipulación de los mensajes, las fake news, la cultura del espectador o la polarización; los artefactos tienen política, incorporan valores, y la tecnología crea formas de poder y autoridad. Cuando hacemos entrega de (todos) nuestros datos, a cambio de unos servicios relativamente triviales, acaban en el balance de estas grandes compañías. Y, además, esos datos son después utilizados para configurar nuestro mundo de una manera que no es ni transparente (no se conocen los algoritmos de estas grandes compañías) ni deseable, convirtiéndose en un instrumento de dominación.

Un desarrollo justo y socialmente responsable de las nubes digitales exige un empoderamiento tecnológico de la ciudadanía, una alfabetización sobre este nuevo mundo digital, así como un nuevo pacto tecno-social entre usuarios, empresas y estados sobre la base de principios éticos, que evite las injusticias algorítmicas mencionadas (discriminación-perfilamiento-sesgos-exclusión) y que promueva la apropiación social de la tecnología para el bien común. No nos durmamos en las nubes.

* Txetxu Ausín es investigador del Instituto de Filosofía del CSIC (IFS-CSIC), donde dirige el Grupo de Ética Aplicada.

¿Cómo lograr las emisiones cero? La solución está en el subsuelo

Por Víctor Vilarrasa (CSIC)*

En pocos años, para poder cumplir con los objetivos climáticos del Acuerdo de París de limitar el aumento de temperatura por debajo de 2 °C, y preferiblemente por debajo de 1,5 °C, muchos de nuestros desplazamientos tendrán que hacerse en coches eléctricos. Tras circular sin emitir gases de efecto invernadero, será necesario cargar el automóvil. ¿Pero de dónde procederá la energía con la que lo carguemos?

Por descontado, tiene que ser de origen renovable para no emitir dióxido de carbono (CO2) por otro lado. La mayoría de las veces tendremos que cargar el coche de noche, cuando por razones obvias los paneles fotovoltaicos no pueden producir electricidad. Tampoco hay garantías de que el viento sople cada noche, ni de que haya oleaje. La energía hidroeléctrica podría proporcionar parte de la demanda, pero difícilmente podrá satisfacerla por completo dado que el agua es un bien preciado y escaso, y su consumo se prioriza frente a la producción de energía. La solución al problema está bajo nuestros pies.

Energía geotérmica

Central geotérmica de Nesjavellir (Islandia).

La Tierra es una fuente inagotable de energía geotérmica. En la corteza terrestre, la temperatura aumenta de media 30 °C por cada kilómetro a medida que nos dirigimos hacia el interior de la Tierra. Por lo tanto, en torno a los 4 kilómetros de profundidad respecto a la superficie acostumbramos a encontrar temperaturas superiores a los 100 °C. Si hacemos circular agua hasta esas profundidades y la devolvemos a la superficie una vez se ha calentado, produciremos vapor de agua, ya que el agua entra en ebullición a 100 °C y a presión atmosférica. Este vapor lo podemos utilizar para mover turbinas que generen electricidad sin emitir emisiones de gases de efecto invernadero.

El vapor de agua, después de turbinado, se enfría y se condensa, pero mantiene una temperatura elevada, cercana a los 80 °C. El agua caliente resultante se puede utilizar como fuente de calor para proporcionar calefacción a un gran número de viviendas, con lo que eliminaremos también las emisiones de CO2 asociadas a calentar nuestras casas en invierno.

Un almacén subterráneo de energía

En verano, la demanda de calor es menor, por lo que habrá un excedente que conviene almacenar. De nuevo, el subsuelo nos proporciona la solución. El excedente de agua caliente se puede inyectar o hacer circular por un intercambiado de calor en el subsuelo. Este proceso aumenta la temperatura del suelo, que puede almacenar el calor durante largos periodos de tiempo con unas pérdidas de energía pequeñas. Para recuperar el calor, no hay más que inyectar agua fría y dejar que ésta se caliente al circular por el suelo que hemos calentado previamente.

El calor no es la única fuente de energía que tendremos que almacenar en la transición hacia un sistema económico con emisiones netas de carbono nulas. De hecho, las fluctuaciones de las renovables, tanto en la producción a lo largo del día como entre las diferentes estaciones del año, exigen disponer de cantidades inmensas de almacenamiento para poder utilizar los excedentes en periodos en los que la producción sea menor que la demanda. El almacenamiento necesario no se podrá cubrir con baterías, por gigantes que las lleguemos a construir.

eneergía eólica

Uno de los mayores desafíos de las energías renovables son sus fluctuaciones.

Una solución que se plantea es producir combustibles que no contengan carbono, como el hidrógeno, a partir de los excedentes de energía renovable; y luego almacenarlos para utilizarlos en periodos de escasez de producción de este tipo de energía. Garantizar la demanda energética en esos periodos implicará almacenar millones de toneladas de hidrógeno. Uno de los mejores lugares para hacerlo son las capas permeables con alta porosidad del subsuelo, que permiten que el combustible se inyecte y recupere con facilidad.

Captura de CO2 bajo tierra

El reto de descarbonizar la economía va más allá de producir energía limpia con las renovables y electrificar los modos de transporte. Existen procesos industriales que difícilmente pueden dejar de emitir CO2, ya que este gas de efecto invernadero es el resultado de las reacciones químicas que tienen lugar en diversos procesos productivos. Por ejemplo, la fabricación de acero y cemento conlleva la emisión de CO2.

Las emisiones asociadas a procesos industriales representan el 20% de las emisiones actuales. La solución a estas emisiones vuelve a estar en el subsuelo. En este caso hay que capturar el CO2 antes de que sea emitido a la atmósfera, para lo que existen diferentes técnicas, y posteriormente inyectarlo en formaciones geológicas profundas para su almacenamiento permanente. Con esto, no estaríamos más que devolviendo el carbono a su lugar de origen, ya que el carbono que hemos emitido y seguimos emitiendo a la atmósfera proviene de la quema de combustibles fósiles, que hemos extraído y extraemos del subsuelo.

Campo de géiseres El Tatío (Chile).

Aunque hacemos vida sobre él, el hecho de no poder ver lo que hay en el subsuelo lo convierte en un gran desconocido. Y, como todo lo desconocido, produce temores y cierta desconfianza. Sin embargo, no nos podemos permitir excluir los recursos geológicos en el gran reto de alcanzar la neutralidad de carbono. No existe una única solución para conseguir la descarbonización y necesitamos de la contribución de todas las tecnologías disponibles.

Al igual que el resto de tecnologías, las relacionadas con el subsuelo no están exentas de riesgos, como por ejemplo la sismicidad inducida, desafortunadamente conocida en España por los terremotos del almacén de gas de Castor. La investigación científica en geoenergías pretende minimizar esos riesgos para poder contar con el subsuelo en la descarbonización. Los recursos geológicos, como origen del problema, deben formar parte también de la solución.

 

* Víctor Vilarrasa es investigador del Instituto de Diagnóstico Ambiental y Estudios del Agua (IDAEA-CSIC) y del Instituto Mediterráneo de Estudios Avanzados (IMEDEA, CSIC-UIB). Actualmente dirige un proyecto del European Research Council (ERC) para aumentar la viabilidad de las geoenergías.