Archivo de la categoría ‘Tecnologías’

La dicotomía marciana. ¿Por qué Marte tiene dos hemisferios radicalmente distintos?

Por Juan Ángel Vaquerizo (CSIC-INTA)*

Marte tiene dos caras: el hemisferio norte está hundido, es una zona deprimida y muy lisa que presenta pocos impactos de meteoritos, mientras que el hemisferio sur está sobreelevado respecto al norte y está plagado de cráteres. Esta diferencia es lo que se conoce como dicotomía marciana. La disparidad entre hemisferios es una de las singularidades de nuestro vecino que ha despertado más curiosidad y, por ende, ha sido motivo de estudio desde su descubrimiento. Y aún sigue siéndolo, porque no existe consenso sobre el origen de esta característica fundamental del planeta, que refleja la historia geológica del mismo y también la posible presencia de agua en el pasado.

Mapa topográfico de Marte. / NASA/JPL

Mapa topográfico de Marte. / NASA/JPL

Desde los años sesenta del siglo XX, la exploración planetaria ha permitido aumentar el conocimiento sobre la geología y geografía marcianas –la geografía de Marte se conoce con el nombre de areografía, término proveniente de Ares (equivalente griego al dios romano Marte), y consiste en la caracterización y cartografiado de las regiones de Marte-. Gracias a las naves espaciales que han sobrevolado u orbitado el planeta, tenemos en la actualidad un gran conocimiento sobre sus accidentes geográficos y sus características superficiales: volcanes, cañones, antiguos lechos de río, canales de descarga y vastas regiones salpicadas de cráteres. Todos estos elementos permiten establecer los diferentes procesos geológicos que han tenido lugar a lo largo del tiempo, modelando el planeta rojo a escala global: vulcanismo, actividad tectónica, acción del agua líquida y del hielo y, claro está, impactos de meteoritos.

Para poder cartografiar la superficie de Marte, y en consecuencia las elevaciones del planeta, se definió un nivel de elevación cero o datum. Con el agua en mente, el datum marciano se define como la elevación en la que se alcanzan los valores de presión y temperatura del punto triple del agua, es decir, aquellos para los que el agua puede estar simultáneamente en los tres estados: sólido, líquido y gaseoso. Estos valores son una presión atmosférica de 610,5 Pa (6,1173 mb) y una temperatura de 273,16 K (0,01 oC). Para hacerse una idea, la cuenca más profunda de Marte y una de las mayores del Sistema Solar, Hellas Planitia, está muy por debajo del datum marciano y se encuentra a más de 7 kilómetros de profundidad.

Cráteres en Hellas Planitia. / ESA/DLR/FU Berlín

Cráteres en Hellas Planitia. / ESA/DLR/FU Berlín

Pero el descubrimiento de la dicotomía marciana llega con los primeros mapas completos del planeta. Entre 1998 y 1999 el instrumento Mars Orbiter Laser Altimeter (MOLA), un altímetro láser a bordo de la nave Mars Global Surveyor de la NASA, generó el mapa topográfico más preciso jamás realizado. MOLA recolectaba al día en torno a 900.000 medidas de elevación con una sensibilidad tan alta que el rango de error en elevación, de media, era de tan solo 13 metros. Con toda esta información -en total se utilizaron 27 millones de medidas de elevación recopiladas por el instrumento para conformar el mapa global-, se observó que la dicotomía de Marte tiene tres expresiones físicas globales:

Topografía de Marte

La parte norte del planeta es una inmensa depresión respecto a la parte sur. La dicotomía distingue entre las denominadas tierras altas (uplands) del sur y las tierras bajas (lowlands) del norte. Los datos altimétricos muestran que las tierras bajas son entre 3 y 6 km más bajas que las tierras altas del sur. Esta característica del relieve marciano recuerda la diferencia de elevación entre los continentes y los fondos oceánicos de la Tierra.

Densidad de cráteres de impacto

También existe una acusada diferencia en la densidad de cráteres de impacto, mucho menos numerosos en las tierras bajas del norte. En el hemisferio sur aparecen regiones plagadas de grandes cráteres y caracterizadas por superficies abruptas. En contraste, las lowlands situadas al norte presentan pocos cráteres grandes, su suelo es muy llano y muestran otros tipos de elementos que indican que han ocurrido extensos procesos de renovación de su superficie, como coladas de lava y grandes inundaciones.

Grosor de la corteza

Existe además una gran diferencia en el grosor de la corteza entre los dos hemisferios, mayor en las tierras altas del sur que en las tierras bajas del norte. Las uplands del sur tienen un grosor máximo aproximado de 58 km, mientras que las lowlands del norte apenas alcanzan los 32 km de grosor.

Estas tres manifestaciones físicas de la dicotomía no coinciden exactamente, de modo que no es posible trazar una frontera exacta de separación ni asegurar que todas ellas se deban a una misma causa. No obstante, se considera que el origen de la dicotomía es único y que produjo como resultado los tres aspectos observados. Asimismo, hay bastante acuerdo en que la dicotomía de Marte parece ser extremadamente antigua, que se originó en una etapa muy temprana del planeta, al comienzo de la evolución geológica de Marte, cuando la corteza estaba recién formada o terminando de formarse.

Mapas topográficos de relieve sombreado de muy alta resolución producidos por el equipo científico de MOLA. / NASA/MOLA

Mapas topográficos de relieve sombreado de muy alta resolución producidos por el equipo científico de MOLA. / NASA/MOLA

En la actualidad hay dos posibles hipótesis sobre el origen de la dicotomía: una endógena y otra exógena. La endógena establece que la dicotomía es el resultado de procesos convectivos asimétricos en el manto de Marte que produjeron el adelgazamiento de la corteza en la parte norte del planeta y un engrosamiento en el sur. La otra explicación, la exógena, parece contar con un mayor consenso y establece que la dicotomía es el resultado de un impacto gigantesco. Un impacto en Marte de un objeto de entre 1.600 y 2.700 km de tamaño -como los que existían en el Sistema Solar en la época estimada- habría sido capaz de crear una cuenca de impacto tan grande como Vastitas Borealis, nombre con el que se conoce a la inmensa llanura del hemisferio norte. El tamaño de esta zona, de 10.600 km de longitud y 8.500 km de anchura (Asia, Europa y Australia juntas), y su forma elíptica hacen plausible que sea el resultado de un gran impacto. Pero, por ahora, ese gran impacto es solo una hipótesis.

 

 

* Juan Ángel Vaquerizo es el responsable de la Unidad de Cultura Científica del Centro de Astrobiología (CSIC-INTA) y autor del libro Marte y el enigma de la vida (CSIC-Catarata) de la colección ¿Qué sabemos de?

Los riesgos del teletrabajo: ¿es seguro trabajar en la red?

Por David Arroyo, Víctor Gayoso y Luis Hernández (CSIC)*

El confinamiento ha sido uno de los principales elementos de contención de la COVID-19 desde el inicio de la crisis pandémica. Para mantener la actividad laboral y educativa ha sido necesario desplegar un conjunto de soluciones tecnológicas que han hecho que el teletrabajo y la enseñanza online cobren un peso muy significativo en nuestra sociedad. Así, por ejemplo, se ha estimado que entre marzo y septiembre de 2020 hubo un incremento del 84% en el uso de herramientas de teletrabajo. En paralelo, sin embargo, también han proliferado los ciberataques y los cibercrímenes: a lo largo de 2020, se estima que hubo un incremento del 6.000% en ataques por spam, ransomware (programas de secuestro de datos) y phishing (suplantación de la identidad de un tercero –persona, empresa o servicio– para que un usuario proporcione datos confidenciales creyendo que trata con un interlocutor de confianza).

Un ejemplo de los riesgos que trae consigo el teletrabajo es el de las aplicaciones de videoconferencia, como Zoom, Skype o Teams, que nos han permitido seguir manteniendo reuniones. El uso de herramientas como estas, desarrolladas por terceros, puede hacer mucho más vulnerable la seguridad de la información intercambiada; sobre todo, cuando se recurre a ellas con urgencia y no son debidamente auditadas y verificadas.

La amenaza del espionaje afecta también a las reuniones presenciales, pero acceder maliciosamente a la información que se comparte en estos encuentros supone que los atacantes pongan en marcha procedimientos y técnicas de alto coste y específicos para cada situación. En el caso de las videoconferencias, si existen vulnerabilidades de seguridad en una aplicación, todas las reuniones celebradas usando ese software estarán afectadas por un riesgo de interceptación de la información intercambiada. Esto es, existiría una vulnerabilidad matriz que puede ser explotada de modo generalizado.

El software que se emplea en videoconferencias solo es una pieza dentro del complejo del teletrabajo, que constituye un verdadero reto para las políticas de ciberseguridad. Lo es en situaciones de normalidad, pero mucho más en escenarios de crisis similares al deparado por la COVID-19. En este contexto, el teletrabajo se ha adoptado en la mayor parte de los casos de modo improvisado, sin una política de seguridad previamente definida y debidamente evaluada. Baste mencionar como ejemplo de ello los recientes ataques contra el Servicio Público de Empleo Estatal (SEPE) y el Ayuntamiento de Castellón, o los mensajes fraudulentos relacionados con el ofrecimiento de servicios a domicilio para la vacunación contra la COVID-19.

Ciberhigiene y ciberseguridad

Sin duda, es deseable que todas las personas que teletrabajan sigan unas buenas prácticas de ciberhigiene, como evitar la instalación de software no recomendado por los responsables de cibersegu­ridad, no conectarse a redes wifi públicas o no responder correos sospechosos de phishing. Ahora bien, una buena política de seguridad no asume sin más que esas normas de ciberhigiene se vayan a cumplir, sino que establece mecanismos de control para salvaguardar la seguridad, o al menos paliar las consecuencias de posibles ataques, en caso de incumplimiento.

Pues bien, en la crisis de la COVID-19 el teletrabajo se ha desplegado, en muchos casos, sin que las plantillas tengan arraigada esa disciplina de ciberhigiene y sin que su empresa haya diseñado una política de seguridad adecuada. Es más, en muchas situaciones los teletrabajadores han tenido que utilizar ordenadores y dispositivos propios. Dada la situación de confinamiento generalizado y la limitación de recursos tecnológicos en el hogar, es de suponer que en muchos domicilios los ordenadores han sido compartidos entre varios integrantes de la unidad familiar. Esta práctica tiene que ser considerada como un riesgo de seguridad adicional, ya que cada miembro del hogar tiene, a priori, una cultura de ciberseguridad distinta y usa la tecnología para objetivos diferentes.

Por ello, es preciso formar de modo adecuado a las personas que potencialmente van a teletrabajar para que tomen conciencia de los riesgos de ciberseguridad asociados a entornos de trabajo fuera del perímetro de seguridad de su empresa. En este sentido, sería de alto interés la planificación de simulacros y ciberejercicios en los que la interacción con las personas responsables de la ciberseguridad permitiera fortalecer rutinas de ciberhigiene, así como establecer pautas para la resolución de problemas de seguridad con el apoyo telemático de especialistas.

Si se ejecutan de modo correcto y de forma regular, estos ejercicios pueden servir para disminuir el impacto de los ciberataques al mejorar las competencias tecnológicas de la plantilla y la gestión de factores psicológicos que pueden ser explotados por ciberatacantes en periodos de crisis. Es el caso del estrés, la ansiedad o la falta de concentración motivada por las distracciones que se dan en un entorno distinto del laboral. Aquí conviene tener presente que la cadena de ataque habitual incluye estrategias de ingeniería social y phishing mediante las que los usuarios pueden bajar la guardia e instalar software sin evaluación de seguridad, acceder a sitios web asociados a campañas de malware y ser víctimas de robo de información o de ciberacoso.

Fomentar una cultura de ciberseguridad y ciberresiliencia puede y debe contribuir a reducir el impacto de estos ataques en posibles crisis futuras.

* David Arroyo, Víctor Gayoso y Luis Hernández son investigadores del CSIC en el Instituto de Tecnologías Físicas y de la Información “Leonardo Torres Quevedo” y autores del libro Ciberseguridad (CSIC-Catarata). Este post es un extracto del mismo.

Cinco pinturas contemporáneas que hablan mucho de ciencia

Por Mar Gulis (CSIC)

Este próximo jueves, 25 de marzo, el Museo Nacional de Ciencias Naturales (MNCN-CSIC) inaugura la exposición Arte y ciencia del siglo XXI. La muestra reúne obras de 35 artistas contemporáneos que trabajan en España: 66 cuadros y 11 esculturas figurativas que el Museo ha puesto a dialogar con la ciencia de hoy. ¿Cómo? Conectando el tema de cada obra con una línea de investigación del Consejo Superior de Investigaciones Científicas, como la alimentación, el envejecimiento, el calentamiento global, la evolución humana o la desigualdad de género. Si quieres ir abriendo boca, aquí tienes algunos de los cuadros que encontrarás en la exposición.

Egg IV

En la muestra, este óleo hiperrealista de Pedro Campos sirve para introducir la investigación en alimentos funcionales de Marta Miguel. Los compuestos bioactivos presentes en alimentos como el huevo son utilizados por esta especialista del Instituto de Investigación en Ciencias de la Alimentación (CSIC-UAM) para elaborar productos que mejoren nuestro metabolismo y prevengan enfermedades relacionadas con nuestro estilo de vida o la malnutrición.

Juanito

La nitidez y definición de esta obra son abrumadoras. Se trata de una pintura al óleo en la que José Luis Corella retrata a un hombre con alzhéimer. Esta enfermedad, cada vez más común entre nuestros mayores, impide generar nuevas neuronas a quienes la padecen. En la exposición, el cuadro nos conduce hasta el Centro de Biología Molecular Severo Ochoa (CSIC-UAM), donde María Llorens estudia la neurogénesis adulta en humanos y modelos animales para diseñar terapias que permitan retrasar o disminuir los síntomas del alzhéimer.

El escondite

¿Qué nos distingue verdaderamente de los simios? Este óleo de Arantzazu Martínez suscita una pregunta fundamental a la que tratan de responder investigadores como Antonio Rosas, del MNCN-CSIC. La respuesta está relacionada con el bipedismo, que libera las manos y las convierte en herramientas de precisión, y con el posterior incremento de la capacidad cerebral. Sin embargo, aún nos queda mucho por saber sobre cómo, cuándo y por qué nuestros ancestros modificaron su anatomía y sus modos de vida. Eso nos permitirá entender mejor de dónde venimos, pero también a dónde vamos como especie.

Patio

La subida del nivel del mar provocada por el calentamiento global es evocada en esta imagen onírica, pintada al óleo por Santos Hu. La obra da pie al investigador del MNCN-CSIC David Vieites, comisario de la exposición, a hablar del impacto del cambio global en el modo de vida de millones de personas o de la pérdida de biodiversidad. De este modo, el cuadro nos lleva hasta los centros del CSIC que estudian estos fenómenos y las medidas que hacen falta para prevenirlos y remediarlos.

La labor invisible

La pintora Carmen Mansilla denuncia en este óleo elaborado ex profeso para la exposición que las artes y las ciencias han compartido a lo largo de los siglos la exclusión de las mujeres. Científicas y artistas quedaron ocultas y sus nombres empiezan a conocerse y valorarse en su justa medida con los estudios de género. El Museo destaca que investigadoras como la física Pilar López Sancho –impulsora de la Comisión Mujeres y Ciencia del CSIC– lideran el cambio hacia una mayor participación de las mujeres en ciencia y tecnología.

Viajar en avión, ¿cómo afecta a la calidad del aire?

Por Mar Gulis (CSIC)

¿Cuándo fue la última vez que viajaste en avión? Es posible que tu respuesta se remonte a casi un año (o más) por la situación en la que nos encontramos, pero ahora piensa cuántos vuelos realizaste antes… En 2019, por los aeropuertos españoles pasaron 275,36 millones de pasajeros y las aerolíneas españolas movieron a 113,83 millones de personas, el 41,4% del tráfico total, según datos del Ministerio de Transportes, Movilidad y Agenda Urbana. Además, como recoge AENA, España recibió 83,7 millones de turistas internacionales, 900 mil más que el año anterior, y de ellos el 82% (más de 68,6 millones) utilizaron el avión como medio de transporte.

¿Sabes lo que suponen estas cifras en contaminación? En este sentido, un estudio de la revista Global Environmental Change estima que “un 1% de la población del mundo es responsable de más de la mitad de las emisiones de la aviación de pasajeros que causan el calentamiento del planeta”.

Un avión puede llegar a emitir hasta veinte veces más dióxido de carbono (CO2) por kilómetro y pasajero que un tren.

Un motor de avión emite principalmente agua y dióxido de carbono (CO2). Sin embargo, dentro de él tiene lugar un proceso de combustión a muy alta temperatura de los gases emitidos, lo que provoca reacciones atmosféricas que a su vez producen otros gases de efecto invernadero, como el óxido de nitrógeno (NO). Por ello, el Grupo Intergubernamental de Expertos sobre el Cambio Climático (IPCC) estima que el efecto invernadero de los aviones es unas cuatro veces superior al del CO2 que emiten. Según Antonio García-Olivares, investigador del CSIC en el Instituto de Ciencias del Mar (CSIC), esto eleva el efecto global de los aviones a aproximadamente la mitad del efecto del tráfico global de vehículos.

¿Cuándo contamina más?

Un avión puede llegar a emitir hasta veinte veces más dióxido de carbono (CO2) por kilómetro y pasajero que un tren. Según un estudio de la Agencia Europea del Medio Ambiente de 2014, el tráfico aéreo es el que mayores emisiones produce (244,1 gramos por cada pasajero-km), seguido del tráfico naval (240,3 g/pkm), el transporte por carretera (101,6 g/pkm) y el ferroviario (28,4 g/pkm).

“Esto es, el transporte por avión y por barco emiten en la Unión Europea más del doble de CO2 por pasajero-km que el transporte por carretera, y el transporte por tren es casi 4 veces más limpio que por carretera, y casi 9 veces más limpio que el transporte por avión”, comenta Antonio García-Olivares.

El CO2 y el resto de gases que emite la aviación se añaden a la contaminación atmosférica “que afecta a la salud humana solo en los momentos de despegue, y en menor grado, en el aterrizaje”, señala el investigador. Durante la mayor parte del viaje, el avión vuela en alturas donde al aire está estratificado (en capas) y la turbulencia vertical es mínima. Esto hace que la difusión de los contaminantes hacia la superficie terrestre sea prácticamente nula. Pero, “los contaminantes permanecen en altura, donde sufren distintas reacciones fotoquímicas, contribuyendo algunos de ellos al efecto invernadero”, añade.

En cualquier caso, el tráfico aéreo también incide en el aire que respiramos. En los aeropuertos no solo los aviones emiten gases contaminantes, sino también otros medios de transporte como los taxis, los autobuses y los vehículos de recarga, que en su mayoría son diésel. Al quemar combustible y rozar sus ruedas con el suelo, todos ellos liberan partículas ultrafinas a la atmósfera consideradas potencialmente peligrosas para la salud, explica Xavier Querol, del Instituto de Diagnóstico Ambiental y Estudios del Agua del CSIC.

El grado en que estas emisiones aumentan los niveles de partículas contaminantes en una ciudad, dependerá de la distancia del aeropuerto con respecto al núcleo de población y al urbanismo. En grandes ciudades con altos edificios (streetcanions), la dispersión es muy mala y el impacto en la exposición humana es mayor que en otras; a diferencia de lo que suele ocurrir en un aeropuerto, donde las emisiones se pueden dispersar y contaminar menos, indica Querol.

En grandes ciudades con altos edificios (streetcanions), la dispersión es muy mala y el impacto en la exposición humana es mayor.

¿Sería posible viajar en avión sin contaminar?

“La tendencia del tráfico aéreo es a crecer en las próximas décadas un 30% más que en la actualidad, pero en la presente década es probable que la producción de petróleo y líquidos derivados del petróleo comiencen a declinar. Ello, unido a la posible presión legislativa por disminuir el impacto climático, podría frenar esa tendencia al crecimiento del tráfico aéreo”, reflexiona Antonio García-Olivares.

Un estudio en el que ha participado el investigador concluye que, si la economía fuese 100% renovable, el coste energético de producir metano o combustibles de aviación a partir de electricidad y CO2 sería mucho más elevado que en la actualidad y desencadenaría una fuerte subida de los precios de los viajes en avión y, por tanto, una reducción del transporte aéreo hacia valores en torno al 50% de los actuales.

Reducir la contaminación implica, como resume el investigador del CSIC en el Instituto de Ciencias del Mar Jordi Solé, cambiar los modos y la logística del transporte, así como reducir su volumen y la velocidad (cuanto más rápido vamos, más energía consumimos y más contaminamos). “La navegación aérea a gran escala y el transporte en general se tienen que rediseñar en un sistema con cero emisiones; por tanto, el transporte aéreo tiene que estar armonizado en un modelo acorde con un sistema socio-económico diferentes y, por supuesto, ambiental y ecológicamente sostenible”, concluye Solé.

¿Cómo se mide el tiempo en Marte?

Por Juan Ángel Vaquerizo (CSIC-INTA)*

La respuesta, a priori, es sencilla: en Marte, el tiempo se mide utilizando el Sol. El segundo planeta más pequeño del Sistema Solar y cuarto en cercanía al Sol gira en torno a su eje con un periodo de 24,6 horas, lo que supone que el día solar marciano es aproximadamente un 3% más largo que el día solar terrestre. En concreto, un día en Marte tiene una duración de 24 horas, 39 minutos y 32,55 segundos, lo que se denomina sol.

Amanecer en Marte. / NASA/JPL-Caltech/Doug Ellison/PIA 14293

Amanecer en Marte. / NASA/JPL-Caltech/Doug Ellison/PIA 14293

En la superficie de Marte se utiliza la hora solar local para la medida del tiempo de las misiones que han aterrizado allí. Cada misión tiene su propio tiempo solar local, que estará determinado por su ubicación en el planeta. A pesar de que Marte dispone de un meridiano cero para referir las longitudes geográficas, no tiene zonas horarias definidas a partir de ese meridiano como ocurre en la Tierra. Por tanto, la separación en longitud geográfica de las misiones entre sí determinará la diferencia horaria entre las mismas.

Para determinar el calendario marciano hubo más controversia. Sin embargo, para el día a día de las misiones que han aterrizado en Marte, se ha optado por un criterio más simple: contar los días (soles) en Marte a partir del momento del aterrizaje, que pasa a denominarse sol 0. Por ejemplo, la misión InSight de la NASA (que, por cierto, contiene un instrumento español desarrollado en el Centro de Astrobiología (CSIC-INTA): los sensores mediambientales TWINS) ha sido la última en aterrizar sobre la superficie marciana. Lo hizo el 26 de noviembre de 2018, lo que supone que la nave pasa en Marte hoy su sol 784.

InSight en la superficie marciana. / NASA/JPL-Caltech

InSight en la superficie marciana. / NASA/JPL-Caltech

Las estaciones en el planeta rojo

Del mismo modo que un sol en Marte dura más que un día en la Tierra, la duración del año marciano es también mayor que el terrestre, pues al estar más alejado, describe su órbita alrededor del Sol más lentamente que la Tierra. Un año marciano tiene 668,6 soles, lo que equivale a 687 días terrestres. Esta mayor duración del año hace que las estaciones en Marte sean más largas que las terrestres.

Entonces, ¿hay también estaciones en Marte? Pues sí, en Marte se producen estaciones a lo largo del año debido a que el eje de rotación de Marte también está inclinado respecto al plano de la eclíptica (el plano imaginario en el que los planetas del Sistema Solar giran alrededor del Sol). Esta inclinación del eje, conocida como oblicuidad, es de 25,2° en Marte, un poco mayor que los 23,4393° de la Tierra. Además, la órbita de Marte es más excéntrica que la terrestre.

La órbita más elíptica de Marte provoca que sus estaciones tengan duraciones muy diferentes entre sí, de manera que las primaveras marcianas en el hemisferio norte y los otoños en el hemisferio sur duran 194 soles, siendo así las estaciones más largas. Las estaciones más cortas en Marte son los otoños en el hemisferio norte y las primaveras en el sur, con una duración de solo 142 soles. Los inviernos en el hemisferio norte y los veranos en el sur duran 154 soles; y, finalmente, los veranos en el hemisferio norte y los inviernos en el sur duran 178 soles.

A vueltas con el calendario marciano

Pero, ¿qué ocurre con el calendario marciano? En la Tierra los meses vienen determinados por el ciclo lunar, pero Marte tiene dos lunas, los dos satélites naturales llamados Fobos y Deimos. Como curiosidad, las lunas del planeta vecino reciben sus nombres de la mitología griega: Fobos significa ‘miedo’ y Deimos ‘terror’, y son los nombres de los caballos que tiraban del carro de Ares, el dios griego de la guerra, equivalente al dios romano Marte.

Captura de parte de la órbita que realiza Fobos alrededor de Marte. / NASA, ESA y Z. Levay (STScl)

Captura de parte de la órbita que realiza Fobos alrededor de Marte. / NASA, ESA y Z. Levay (STScl)

Los periodos de Fobos y Deimos son muy cortos, por lo que utilizar el mismo sistema que en la Tierra resulta inútil. Por ello, se eligió dividir el año en segmentos más o menos similares, más largos que nuestros meses, que cubrieran todo el periodo orbital. Los astrónomos Percival Lowell, Andrew E. Douglass y William H. Pickering, Robert G. Aitken y sir Patrick Moore diseñaron calendarios marcianos con mayor o menor suerte, pero no fue hasta 1986 cuando el ingeniero norteamericano Thomas Gangale publicó el calendario dariano, llamado así en honor a su hijo Darius.

En el calendario dariano, el año marciano se divide en 24 meses para acomodarlo manteniendo la noción de un “mes” razonablemente similar a la duración de un mes de la Tierra. El año cero del calendario se situó inicialmente en 1975, año del primer aterrizaje con éxito en la superficie de Marte de una nave estadounidense, con las misiones Viking. Más tarde, se definió como nuevo año cero para el calendario el año 1609, como doble homenaje a la publicación de las leyes de Kepler y la primera observación con un telescopio realizada por Galileo.

MY (martian year) y Ls (longitud planetocéntrica)

La Planetary Society decidió finalmente no emplear un calendario como tal, sino utilizar la longitud planetocéntrica del Sol, conocida como Ls (ángulo que indica la posición de Marte en su órbita alrededor del Sol), para medir la época del año en Marte y que funcionaría a modo de fecha marciana. Así, el valor Ls = 0° corresponde al paso de Marte por el punto vernal, es decir, el equinoccio de primavera en el hemisferio norte marciano; el valor 90° corresponde al solsticio de verano boreal; 180° al equinoccio de otoño boreal y 270° al solsticio de invierno boreal.

En este calendario, el año marciano 1 o MY1 (por sus siglas en inglés) comenzó oficialmente el día 11 de abril de 1955 a las 00:00 h UTC y terminó el 26 de febrero de 1957 a las 00:00 h UTC. El motivo de elegir esta fecha fue hacer coincidir el comienzo del calendario con la tormenta global de polvo que se observó en Marte en 1956. El comienzo de la estación de tormentas de polvo en Marte se produce justo después del paso por el perihelio, el punto de la órbita más cercana al Sol y donde más rápido se desplaza, sobre Ls = 260°.

Posteriormente, el calendario se extendió y se determinó el año marciano 0, MY0, que comenzó el día 24 de mayo de 1953 a las 00:00 h UTC. Cualquier año anterior llevaría delante el signo menos. Por tanto, MY-1 comenzó el 7 de julio de 1951, el MY-2 el 19 de agosto de 1949, y así sucesivamente. Como curiosidad, la primera observación conocida de Marte con un telescopio, realizada por Galileo a finales del año 1610, correspondería al MY-183.

El róver Curiosity en Marte. / NASA/JPL-Caltech/MSSS

El róver Curiosity en Marte. / NASA/JPL-Caltech/MSSS

Así pues, con este criterio de designación de fechas, el róver Curiosity (que lleva a bordo el otro instrumento español en Marte: REMS, la estación medioambiental también del Centro de Astrobiología) aterrizó en Marte el MY31 Ls150, es decir, el 6 de agosto de 2012. Y por su parte, InSight el MY35 Ls112.

Sea cual fuere el modo de medir el tiempo en Marte, dado que la idea de enviar seres humanos a explorar Marte es ya un proyecto consolidado, no estaría de más ir buscando un criterio unificado. No vaya a ser que el primer ser humano que ponga el pie en Marte no sepa cómo poner su reloj en hora.

 

* Juan Ángel Vaquerizo es el responsable de la Unidad de Cultura Científica del Centro de Astrobiología (CSIC-INTA) y autor del libro ‘Marte y el enigma de la vida’ (CSIC-Catarata) de la colección ¿Qué sabemos de?

Ojo al ‘data’: un paseo filosófico por las nubes digitales

Por Txetxu Ausín (CSIC)*

Las nubes son la exitosa metáfora para referirnos a la nueva realidad digital en la que vivimos. Una realidad configurada por las redes sociales, la inteligencia artificial y la analítica de los datos masivos o big data que se recogen en la interacción e interconexión creciente de humanos, artefactos e instrumentos que registran, procesan y reutilizan enormes cantidades de información. Las nubes parecen blancas, etéreas, inofensivas, pero están reconfigurando radicalmente nuestro mundo y nuestras relaciones; por ello son tecnologías disruptivas, que impulsan transformaciones radicales y a gran velocidad en esta nueva era de los humanos llamada Antropoceno. Cada vez más nos configuramos como sistemas sociotécnicos donde todas nuestras interrelaciones están mediadas tecnológicamente; mantenemos una interacción física, cognitiva y hasta emocional con la tecnología, difuminándose las fronteras entre sujetos humanos y artefactos.

Les invito a dar un paseo por las nubes, a pensar este nuevo ecosistema digital de la mano de la filosofía, para indagar y preguntarnos por su esencia, por la concepción del ser humano que entrañan, por el tipo de conocimiento que generan, por su impacto medioambiental, por su ética y su política.

Ilustración de Irene Cuesta (CSIC).

Empecemos por la realidad de los datos

Los datos están en todas partes (“data is all around”), son ubicuos, de modo que se está produciendo una ‘datificación’ de la vida, una representación digital de la realidad, una ontología de datos donde se pretende poner en un formato cuantificado todo, para que pueda ser medido, registrado y analizado. Es decir, todo se transforma en información cuantificable. Así que el tamaño importa, ya que, cambiando el volumen y la cantidad de datos manejados, se está cambiando en cierto modo la esencia de la realidad.

Esta antigua búsqueda de la humanidad se desarrolla hoy exponencialmente por medio de la digitalización y los sistemas de Tecnologías de la Información y la Comunicación (TIC). Se cuantifica el espacio (geolocalización), se cuantifican las interacciones humanas y todos los elementos intangibles de nuestra vida cotidiana (pensamientos, estados de ánimo, comportamiento) a través de las redes sociales, se ha convertido el cuerpo humano en una plataforma tecnológica y se monitorizan los actos más esenciales de la vida (sueño, actividad física, presión sanguínea, respiración…) mediante dispositivos médicos, prendas de vestir, píldoras digitales, relojes inteligentes, prótesis y tecnologías biométricas, en espacios públicos y privados (lo que se conoce como ‘internet de los cuerpos‘). Se datifica todo lo que nos rodea mediante la incrustación de chips, sensores y módulos de comunicación en todos los objetos cotidianos (‘internet de las cosas‘).

Si pensamos en términos ontológicos, no son ya los átomos sino la información la base de todo lo que es (‘internet del todo‘). Un universo compuesto esencialmente de información (infosfera). Una nueva perspectiva de la realidad, del mundo, como datos que pueden ser explorados y explotados. Además, la llamada ideología del ‘dataísmo’ es una nueva narrativa universal que regula nuestra vida y que viene legitimada por la autoridad de los datos masivos: el universo consiste en flujos de datos y el valor de cualquier fenómeno social o entidad está determinado por su contribución al procesamiento de datos. Y esto no es una teoría científicamente neutral porque pretende determinar lo que está bien y está mal con relación a un valor supremo, el flujo de información: será bueno aquello que contribuya a difundir y profundizar el flujo de información en el universo y malo, lo contrario; la herejía es desconectarse del flujo de datos.

     Ilustración de Irene Cuesta (CSIC).

El ser humano de la realidad de los datos

Dicho lo anterior, este paseo nos lleva a la antropología, a la concepción de ser humano y de su identidad que encierran las nubes. Se datifican todos los aspectos de nuestra vida (yo-cuantificado) y, no solo eso, se otorga un valor comercial a esa datificación, de modo que nuestras actividades nos definen como un objeto mercantil (somos el producto). Eso conduce a una constante optimización de uno mismo, donde el tiempo libre se vive igual que el tiempo de trabajo y está atravesado por las mismas técnicas de evaluación, calificación y aumento de la efectividad. Se da una progresiva desaparición de lo privado y una servidumbre voluntaria con relación a las nubes y la ‘mano invisible’ del flujo de datos. El concepto de rendimiento se refiere ya a la vida en su totalidad (24/7) en lo que se ha llamado ‘economía de la atención’ y ‘capitalismo de vigilancia’.

Filosofía del conocimiento

No es más halagüeña la perspectiva desde la filosofía del conocimiento o epistemología. Es cierto que la digitalización ofrece oportunidades de alfabetización científica, de creación de reservas epistémicas, de nuevos espacios formativos y de mayor transparencia y rendición de cuentas de las administraciones, favoreciendo la participación y el compromiso ciudadano con las políticas públicas. Además, las nubes de sanidad digital, educación online o mercados transforman las sociedades de países empobrecidos y contribuyen a la realización de los Objetivos de Desarrollo Sostenible. Sin embargo, la analítica de big data está transformando el método científico privilegiando las correlaciones frente a la causalidad como modelo explicativo de la realidad —recuérdese que una correlación es un vínculo o relación recíproca entre varias cosas—. No obstante, el hecho de que dos eventos se den habitualmente a la vez o de manera consecutiva no implica que uno sea la causa de otro. El big data establece correlaciones muy fuertes entre diferentes eventos o informaciones, pero eso no significa automáticamente que unos constituyan la causa o el origen de los otros, que serían su efecto.

Y aunque el big data se ha planteado como la panacea para la toma de decisiones más acertada, imparcial y eficiente, que evitaría los errores humanos y garantizaría un conocimiento más fiable, ha obviado algo básico, los sesgos. Esto es, los prejuicios y variables ocultas a la hora de procesar la información, las tendencias y predisposiciones a percibir de un modo distorsionado la realidad —sesgos que no desaparecen nunca aumentando el tamaño de la muestra y que están implícitos en los datos o en el algoritmo que los maneja—. Además, disponer de más datos no implica automáticamente un mayor y mejor conocimiento. Tener ingentes cantidades de datos puede conducir a la confusión y al ruido, los datos no son siempre información significativa, y los algoritmos son tremendamente conservadores porque reflejan lo que hay, lo dado, el prejuicio subyacente en la sociedad, escamoteando la discusión acerca de qué valores son preferibles, sin ninguna ambición transformadora. Los algoritmos, que no son sino un conjunto de pasos ordenados empleados para resolver un problema o alcanzar un fin (una codificación de medios y fines), se presentan bajo una apariencia de neutralidad, pero no dejan de ser opiniones encapsuladas.

Ilustración de Irene Cuesta (CSIC).

Ética y ecoética

Ligado a lo anterior, si hablamos de responsabilidad y ética, las nubes digitales presentan riesgos morales importantes en términos de daños a los individuos y a la sociedad:

  • Discriminación por sobrerrepresentación de personas con ciertas características y exclusión de otras; un asunto vinculado a los sesgos, como la discriminación de género o racial. Por ejemplo, las mujeres tienen menos posibilidades de recibir anuncios de trabajo en Google y el primer certamen de belleza juzgado por un ordenador colocó a una única persona de piel oscura entre los 44 vencedores, como señala Cathy O’Neil en Armas de destrucción matemática.
  • Dictadura de datos (políticas predictivas), donde ya no somos juzgados sobre la base de nuestras acciones reales, sino sobre la base de lo que los datos indiquen que serán nuestras acciones y situaciones probables (enfermedades, conductas…).
  • Perfilamiento (configuración de un ‘perfil de riesgo’) y estigmatización, cuando se define y manipula nuestra identidad, invadiéndose la privacidad y espacios íntimos incluso a nivel cognitivo-conductual y emocional.

Pero estas nubes digitales, desde una perspectiva medioambiental y ecoética, tampoco responden a la ‘desmaterialización’ de la economía que prometen. Por un lado, la fabricación de redes y productos electrónicos supera con creces la de otros bienes de consumo en términos de materias primas. Por ejemplo, el gasto en combustibles fósiles utilizados en la fabricación de un ordenador de sobremesa supera 100 veces su propio peso mientras que para un coche o una nevera la relación entre ambos pesos (de los combustibles fósiles usados en su fabricación y del producto en sí) es prácticamente de uno a uno. Por otro lado, los grandes centros de computación y de almacenamiento de datos en la nube requieren enormes cantidades de energía y tienen una alta huella por emisiones de CO2, con un impacto medioambiental muy elevado. El consumo eléctrico es tan grande que las emisiones de carbono asociadas son ingentes, como denuncia el movimiento Green Artificial Intelligence.

   Ilustración de Irene Cuesta (CSIC).

Propiedad y poder

Y es que, para terminar con una reflexión propia de la filosofía política, la que se refiere a la propiedad y al poder, hay que recordar que las nubes digitales son los ordenadores de otros, de esos gigantes tecnológicos, “señores feudales del aire”, como los llama Javier Echeverría, que dominan esta nueva realidad de la internet del todo. Además, las tecnologías digitales, las nubes, modulan la política a través de la manipulación de los mensajes, las fake news, la cultura del espectador o la polarización; los artefactos tienen política, incorporan valores, y la tecnología crea formas de poder y autoridad. Cuando hacemos entrega de (todos) nuestros datos, a cambio de unos servicios relativamente triviales, acaban en el balance de estas grandes compañías. Y, además, esos datos son después utilizados para configurar nuestro mundo de una manera que no es ni transparente (no se conocen los algoritmos de estas grandes compañías) ni deseable, convirtiéndose en un instrumento de dominación.

Un desarrollo justo y socialmente responsable de las nubes digitales exige un empoderamiento tecnológico de la ciudadanía, una alfabetización sobre este nuevo mundo digital, así como un nuevo pacto tecno-social entre usuarios, empresas y estados sobre la base de principios éticos, que evite las injusticias algorítmicas mencionadas (discriminación-perfilamiento-sesgos-exclusión) y que promueva la apropiación social de la tecnología para el bien común. No nos durmamos en las nubes.

* Txetxu Ausín es investigador del Instituto de Filosofía del CSIC (IFS-CSIC), donde dirige el Grupo de Ética Aplicada.

¿Cómo lograr las emisiones cero? La solución está en el subsuelo

Por Víctor Vilarrasa (CSIC)*

En pocos años, para poder cumplir con los objetivos climáticos del Acuerdo de París de limitar el aumento de temperatura por debajo de 2 °C, y preferiblemente por debajo de 1,5 °C, muchos de nuestros desplazamientos tendrán que hacerse en coches eléctricos. Tras circular sin emitir gases de efecto invernadero, será necesario cargar el automóvil. ¿Pero de dónde procederá la energía con la que lo carguemos?

Por descontado, tiene que ser de origen renovable para no emitir dióxido de carbono (CO2) por otro lado. La mayoría de las veces tendremos que cargar el coche de noche, cuando por razones obvias los paneles fotovoltaicos no pueden producir electricidad. Tampoco hay garantías de que el viento sople cada noche, ni de que haya oleaje. La energía hidroeléctrica podría proporcionar parte de la demanda, pero difícilmente podrá satisfacerla por completo dado que el agua es un bien preciado y escaso, y su consumo se prioriza frente a la producción de energía. La solución al problema está bajo nuestros pies.

Energía geotérmica

Central geotérmica de Nesjavellir (Islandia).

La Tierra es una fuente inagotable de energía geotérmica. En la corteza terrestre, la temperatura aumenta de media 30 °C por cada kilómetro a medida que nos dirigimos hacia el interior de la Tierra. Por lo tanto, en torno a los 4 kilómetros de profundidad respecto a la superficie acostumbramos a encontrar temperaturas superiores a los 100 °C. Si hacemos circular agua hasta esas profundidades y la devolvemos a la superficie una vez se ha calentado, produciremos vapor de agua, ya que el agua entra en ebullición a 100 °C y a presión atmosférica. Este vapor lo podemos utilizar para mover turbinas que generen electricidad sin emitir emisiones de gases de efecto invernadero.

El vapor de agua, después de turbinado, se enfría y se condensa, pero mantiene una temperatura elevada, cercana a los 80 °C. El agua caliente resultante se puede utilizar como fuente de calor para proporcionar calefacción a un gran número de viviendas, con lo que eliminaremos también las emisiones de CO2 asociadas a calentar nuestras casas en invierno.

Un almacén subterráneo de energía

En verano, la demanda de calor es menor, por lo que habrá un excedente que conviene almacenar. De nuevo, el subsuelo nos proporciona la solución. El excedente de agua caliente se puede inyectar o hacer circular por un intercambiado de calor en el subsuelo. Este proceso aumenta la temperatura del suelo, que puede almacenar el calor durante largos periodos de tiempo con unas pérdidas de energía pequeñas. Para recuperar el calor, no hay más que inyectar agua fría y dejar que ésta se caliente al circular por el suelo que hemos calentado previamente.

El calor no es la única fuente de energía que tendremos que almacenar en la transición hacia un sistema económico con emisiones netas de carbono nulas. De hecho, las fluctuaciones de las renovables, tanto en la producción a lo largo del día como entre las diferentes estaciones del año, exigen disponer de cantidades inmensas de almacenamiento para poder utilizar los excedentes en periodos en los que la producción sea menor que la demanda. El almacenamiento necesario no se podrá cubrir con baterías, por gigantes que las lleguemos a construir.

eneergía eólica

Uno de los mayores desafíos de las energías renovables son sus fluctuaciones.

Una solución que se plantea es producir combustibles que no contengan carbono, como el hidrógeno, a partir de los excedentes de energía renovable; y luego almacenarlos para utilizarlos en periodos de escasez de producción de este tipo de energía. Garantizar la demanda energética en esos periodos implicará almacenar millones de toneladas de hidrógeno. Uno de los mejores lugares para hacerlo son las capas permeables con alta porosidad del subsuelo, que permiten que el combustible se inyecte y recupere con facilidad.

Captura de CO2 bajo tierra

El reto de descarbonizar la economía va más allá de producir energía limpia con las renovables y electrificar los modos de transporte. Existen procesos industriales que difícilmente pueden dejar de emitir CO2, ya que este gas de efecto invernadero es el resultado de las reacciones químicas que tienen lugar en diversos procesos productivos. Por ejemplo, la fabricación de acero y cemento conlleva la emisión de CO2.

Las emisiones asociadas a procesos industriales representan el 20% de las emisiones actuales. La solución a estas emisiones vuelve a estar en el subsuelo. En este caso hay que capturar el CO2 antes de que sea emitido a la atmósfera, para lo que existen diferentes técnicas, y posteriormente inyectarlo en formaciones geológicas profundas para su almacenamiento permanente. Con esto, no estaríamos más que devolviendo el carbono a su lugar de origen, ya que el carbono que hemos emitido y seguimos emitiendo a la atmósfera proviene de la quema de combustibles fósiles, que hemos extraído y extraemos del subsuelo.

Campo de géiseres El Tatío (Chile).

Aunque hacemos vida sobre él, el hecho de no poder ver lo que hay en el subsuelo lo convierte en un gran desconocido. Y, como todo lo desconocido, produce temores y cierta desconfianza. Sin embargo, no nos podemos permitir excluir los recursos geológicos en el gran reto de alcanzar la neutralidad de carbono. No existe una única solución para conseguir la descarbonización y necesitamos de la contribución de todas las tecnologías disponibles.

Al igual que el resto de tecnologías, las relacionadas con el subsuelo no están exentas de riesgos, como por ejemplo la sismicidad inducida, desafortunadamente conocida en España por los terremotos del almacén de gas de Castor. La investigación científica en geoenergías pretende minimizar esos riesgos para poder contar con el subsuelo en la descarbonización. Los recursos geológicos, como origen del problema, deben formar parte también de la solución.

 

* Víctor Vilarrasa es investigador del Instituto de Diagnóstico Ambiental y Estudios del Agua (IDAEA-CSIC) y del Instituto Mediterráneo de Estudios Avanzados (IMEDEA, CSIC-UIB). Actualmente dirige un proyecto del European Research Council (ERC) para aumentar la viabilidad de las geoenergías.

Puentes que se derrumban y copas que estallan: el fenómeno de la resonancia mecánica

Por Daniel Ramos Vega y Mar Gulis (CSIC) *

El 12 de abril de 1831, una compañía del cuerpo de fusileros del ejército británico regresaba al cuartel después de unas maniobras militares. Al cruzar el puente de Broughton (Manchester), los 74 hombres que componían la compañía notaron un ligero balanceo. Comenzaron entonces a marcar el paso más firmemente e incluso llegaron a cantar canciones de marcha militar, cuando se escuchó un ruido atronador, como si de una descarga de armas se tratase. Uno de los cuatro pilares que sostenían la cadena que soportaba el peso del puente se desplomó y provocó su colapso: el puente acabó derrumbándose por completo sobre el río arrastrando consigo a 40 soldados. Por fortuna, en esa época del año aún no había crecido el nivel del agua y no hubo que lamentar víctimas mortales. Eso sí, 20 soldados resultaron heridos.

Puente de Tacoma Narrows oscilando

¿Por qué se derrumbó el puente? La causa más probable del colapso la encontramos en el fenómeno de la resonancia mecánica.

Para entenderlo, antes tenemos que hablar de ondas y frecuencias. Una onda es una perturbación que se trasmite por el espacio, lleva implícito un cambio de energía y puede viajar a través de diferentes materiales. Imaginemos por ejemplo las ondas que se generan cuando lanzamos una piedra a un estanque o cuando sacudimos una cuerda de arriba a abajo. Para definir una onda utilizamos conceptos como la amplitud, que es la distancia vertical entre el punto de máximo desplazamiento y el punto medio; el periodo, que se define como el tiempo completo en que la onda tarda en describir una oscilación completa; o la frecuencia, que es el número de veces que se repite la oscilación en un tiempo dado.

Onda, magnitud y frecuencia. / Daniel Ramos Vega.

Todo cuerpo presenta una o varias frecuencias especiales que se denominan frecuencias características o propias. Dependen de la elasticidad del objeto, sus dimensiones o su masa. Como los objetos transmiten mejor unas frecuencias que otras, cuando aplicamos una fuerza que oscila a la frecuencia propia del objeto, logramos hacer que el efecto se magnifique. Entonces decimos que entra en resonancia.

Una resonancia, por tanto, se produce cuando sometemos un cuerpo a una fuerza periódica igual a su frecuencia característica. En el caso del puente, la amplitud de las vibraciones es cada vez más grande, hasta el punto que se produce un colapso de la estructura. De esta forma, una fuerza relativamente pequeña, como pueden ser los pasos de unos soldados al marchar sobre él, puede causar una amplitud de oscilación muy grande.

Este curioso episodio tuvo una consecuencia inesperada que aún perdura hasta nuestros días: desde ese accidente, las tropas británicas tienen orden de romper la formación y el paso cuando cruzan un puente.

A lo largo de la historia ha habido episodios similares y han sido varios los puentes que han terminado derrumbándose por el efecto de la resonancia mecánica. Tal vez el más significativo sea el Puente de Tacoma Narrows (Washington), construido en 1940 y que acabó desplomándose violentamente cuatro meses después de su construcción. En este caso fue el viento el que provocó que el puente entrara en resonancia y hay varias filmaciones que muestran el momento del derrumbe.

Vibraciones que hacen estallar copas de cristal

Otro ejemplo de cómo la resonancia mecánica puede tener unos efectos cuanto menos sorprendentes es el siguiente. A principios del siglo XX la cantante de ópera australiana Nellie Melba era conocida por hacer estallar las copas de cristal al cantar. También el famoso tenor italiano Enrico Caruso conseguía este fenómeno cuando cantaba ópera. Y el marido de María Callas, considerada la cantante más eminente del siglo XX, afirmaba que se cortó el brazo al estallar una copa cuando su mujer ensayaba en casa.

¿Puede realmente una cantante de ópera hacer estallar una copa al cantar? La respuesta es sí y la razón es que se ha excitado la resonancia del cristal. Como hemos explicado, este fenómeno físico tiene lugar cuando se ejerce una fuerza sobre un cuerpo con una frecuencia que coincide con la frecuencia propia del sistema. Es lo que pasa cuando empujamos un columpio en el parque: no lo hacemos de cualquier forma, sino que damos un pequeño empujón en el momento adecuado, justo cuando el columpio alcanza su máxima amplitud. Si conseguimos aplicar la fuerza con la misma frecuencia que la frecuencia del balanceo del columpio, somos más efectivos. En el caso de la cantante y la copa de cristal, bastará con que se emita una nota musical cuya frecuencia coincida con la vibración propia de la copa. Manteniendo la nota con la potencia necesaria, como pasaba con el columpio, la energía que se acumula en ella gracias al fenómeno de la resonancia hará que se produzcan vibraciones tan grandes dentro del cristal que la copa estalle.

Eso sí, si algún cantante de ópera quisiera emular a Melba, Caruso o Callas, no le valdría cualquier copa. Debería ser de cristal muy fino y de gran calidad, cuya composición química sea homogénea para que la copa tenga una única frecuencia propia y se comporte como un sistema limpio, de forma que toda su estructura pueda entrar en resonancia. Afinen esas cuerdas vocales mientras alejan su cristalería más preciada.

 

*Daniel Ramos Vega es investigador del Instituto de Micro y Nanotecnología (IMN) del CSIC y autor del libro Nanomecánica (CSIC-Catarata) de la colección ¿Qué sabemos de?

Computación neuromórfica: el salto de la inteligencia artificial a la inteligencia natural de las máquinas

Por Óscar Herreras (CSIC)*

Todos hemos oído hablar de la inteligencia artificial (IA) y de cómo poco a poco se expande a todos los sectores sociales, desde el control de calidad en cadenas de montaje o la regulación del tráfico en una gran ciudad, hasta el diagnóstico de patologías médicas o la producción de obras artístico-culturales, por muy estrafalarias que nos puedan parecer. No se nos escapa que el término “artificial” implica que las capacidades de una IA están construidas a partir de elementos manufacturados por el ser humano. Pero, ¿y el término “inteligencia”? Sin entrar en el inacabable (y divertido) debate de qué es o qué entendemos por inteligencia, es curiosa la sucesión de manifestaciones desde muchos ámbitos que niegan a las máquinas y dispositivos con IA, incluso futuras, una identidad equivalente a la de una persona. Conste que, como animal limitado que soy, comparto algunos de los temores y reservas detrás de esta actitud negacionista.

No obstante, ¿y si pudiéramos diseñar y construir dispositivos que ‘funcionen’ con una inteligencia inequívocamente natural? ¿Nos atreveríamos a decir entonces que estos dispositivos solo emulan las capacidades del intelecto humano? ¿Es posible replicar en un dispositivo artificial la intricada estructura de los circuitos cerebrales que hacen posible las capacidades cognitivas de los animales? Repasemos las claves que la neurociencia ha encontrado en las últimas décadas para explicar esto.

En primer lugar, al contrario que en un cerebro electrónico estándar, en el que la información se almacena en unidades independientes del procesador (discos, ‘la nube’, etc), los animales guardamos la información relevante obtenida en nuestra experiencia diaria alterando los circuitos cerebrales. A este proceso lo denominamos plasticidad neuronal, como detallábamos en esta otra entrada del blog. Así, las conexiones entre los miles de millones de neuronas que forman los circuitos corticales no son permanentes, pues se modifican cuando ocurren determinados patrones de actividad eléctrica generados por la experiencia sensorial o cognitiva. No tenemos unidades separadas de almacén y procesamiento, los circuitos en sí mismos son ambas cosas a la vez. Circuito diferente, persona diferente.

Esta es la teoría. Pero, ¿cómo la llevamos a la práctica en una máquina? Aquí viene otra clave fundamental. En los animales, la modificación de circuitos consiste en establecer nuevos contactos (nuevas sinapsis) o cambiar la fuerza de los ya existentes. Esto nos permite incorporar nuevos datos a, por ejemplo, asociaciones de objetos o conceptos (ideas) que ya tuviéramos, o establecer otras nuevas. La neurociencia ha confirmado estas propiedades repetidamente y ya se pueden replicar en el laboratorio. Muchos ya pensamos que estas claves son suficientes para explicar todas las capacidades cognitivas del cerebro de los mamíferos: la memoria, la imaginación, la lógica, la planificación, etc. Ahora bien, ¿están presentes estas características en los dispositivos actuales de IA?

A lo largo de la historia de la cibernética, los ingenieros sagazmente han puesto un ojo en los descubrimientos neurocientíficos, hasta el punto de que sus principales hitos han surgido tras replicar algún nuevo hallazgo sobre la estructura o el funcionamiento del sistema nervioso: no es mala idea tratar de emular la “máquina” pensante más compleja y potente. Lo cierto es que, al menos en el plano conceptual, existe un fuerte paralelismo entre la manera en la que un cerebro y un dispositivo IA aprenden: ambos cambian algunos de sus elementos para almacenar información o resolver un problema. La diferencia, como esbozaba antes, estriba en que en una IA los circuitos electrónicos impresos que unen sus partes no varían, la información no está en sus conexiones, se guardan en una lista (software) de una unidad separada. Vemos que la solución biológica es mucho más eficiente, la propia estructura cambiante de los circuitos nerviosos contiene tanto nuestra historia vital como nuestras capacidades.

Para emular esta extraordinaria solución biológica, en el programa Europeo de Investigación Human Brain Project (HBP), en el que participan decenas de grupos experimentales y teóricos de diferentes países, existen varios subproyectos que desarrollan lo que se denomina computación neuromórfica. En pocas palabras, están desarrollando ordenadores con una arquitectura de circuitos mutable. Los datos nuevos o las capacidades nuevas no se guardan en forma de unos y ceros en una unidad separada, sino en el propio mapa de conexiones. Estos ordenadores cambian la conectividad de sus circuitos a medida que aprenden a ejecutar eficientemente una tarea, y lo curioso es que el número de cambios puede ser tal que averiguar cuál es su mapa de conexiones después del aprendizaje plantea ya los mismos problemas a un investigador que un cerebro real. Esos cambios en el aprendizaje son tantos y tan complejos que mantener un listado de las nuevas conexiones sería ineficiente a medida que aumente el tamaño y las tareas de estos computadores neuromórficos.

Materiales con memoria

La capacidad de aprender que nos proporciona la plasticidad de las sinapsis no ha sido fácil de emular en los contactos eléctricos de un circuito impreso. Hemos tenido que esperar a la aparición en la década pasada de materiales con propiedades eléctricas extraordinarias para dar solución al último gran problema. Estos materiales, como el dióxido de titanio, pueden variar su resistencia eléctrica dependiendo de la corriente que ha pasado por ellos anteriormente. Se les denomina memristores (resistencias con memoria), y regulan la cantidad de corriente que dejan pasar dependiendo de su historia previa, esto es, de la corriente que ya circuló por ellos en el pasado, replicando fielmente el papel y funcionamiento de las sinapsis cambiantes entre neuronas. Ya no es necesario mantener los cambios (la experiencia) en una unidad separada. Recuerden, no se pierde la unidad de almacén de información, el circuito es la información.

La prueba de concepto ya ha sido publicada recientemente en la revista Scientific Reports En este artículo, el equipo investigador ha sido capaz de realizar conexiones entre una neurona electrónica y una neurona real utilizando dos de estas sinapsis de dióxido de titanio capaces de aprender. Ya no es necesario guardar los cambios en ninguna parte, todo es estructura cambiante, como en un cerebro real. En ordenadores neuromórficos con sinapsis variables todo es artificial menos, quizá, su funcionamiento. ¿Podemos decir que este tipo de ordenadores ha dado el salto de una IA a una inteligencia natural (IN)? Las diferencias entre la tecnología y la biología ciertamente se estrechan. A estas alturas, yo no sabría decir si el cerebro ‘piensa’ como una máquina o la máquina lo hace como un cerebro

* Óscar Herreras es investigador del Instituto Cajal del CSIC.

 

Ojos en el cielo: los drones que cuidan nuestras cosechas

Por Alicia Boto (CSIC)*

Cuando era pequeña, recuerdo que la gente se empezó a ir del campo a las ciudades. Los motivos, sin duda, eran variados, pero uno de ellos era que el campo daba mucho trabajo, el agua era cara y, por si fuera poco, los intermediarios entre los que cultivaban la tierra y los consumidores finales se llevaban muchas de las ganancias, por lo que mantener la agricultura acababa por compensar poco. Además, la tecnología comenzó a posibilitar que una sola persona cultivara mucho terreno, así que la desbandada fue general.

Hoy día, de algún modo, las cosas están cambiando en ese sentido. Ahora el agricultor puede llegar directamente a sus clientes y, además, gracias a los avances que sigue habiendo en la tecnología, es posible cultivar tierras sin que esto implique una atadura constante y presencial. En un futuro no muy lejano, tendrá desde drones para monitorizar, tratar las cosechas o controlar las malas hierbas, a robots que le ayuden en las faenas del campo. Con un click en un programa de ordenador, sin salir de casa, los campos podrán ser vigilados, regados o fumigados. Y lo mejor: gracias a ‘ojos’ que ven con más tipos de luz que los humanos, los nuevos drones podrán detectar un problema antes de que aparezca a simple vista.

Dron vigilando viñedos en Canarias. / Proyecto Apogeo

Vamos a verlo en el caso real en un viñedo y un dron equipado con dos tipos de cámaras: una normal, que solo capta la luz visible, y otra multiespectral, que capta también la luz ultravioleta y la infrarroja. Tras ser envidas por un ordenador para que las interpretase y ‘pintase’, las imágenes recogidas por este dispositivo indicaron que algunas plantas no estaban sanas. Mientras que el suelo y la tierra aparecían en color azul y las vides más sanas en rojo y naranja, las que estaban en peor forma se mostraban en amarillo y verde-azulado.

Cuando el técnico del dron vio la imagen, avisó a la directora de las bodegas. Una vez en el terreno, las plantas parecían todas iguales a simple vista, pero pronto se detectó que el sistema de riego de la zona norte se había taponado parcialmente. Las plantas no estaban recibiendo suficiente agua. Sin embargo, sus hojas no parecían aún secas porque, para ahorrar líquido, las vides dejaron de producir muchas uvas. Si el problema no se hubiera localizado, la cosecha de esa zona habría bajado mucho. Por suerte, una vez corregido el problema, las vides aumentaron su producción de fruta.

Imagen que muestra la cámara normal de un dron que sobrevuela el viñedo. / Proyecto Apogeo

La cámara multiespectral del dron detecta un problema en la zona del recuadro blanco. / Proyecto Apogeo

Las imágenes del dron también permiten detectar en una etapa temprana otros problemas. Los colores de la imagen cambian rápidamente si al suelo le faltan nutrientes, si las plantas se han infectado con patógenos, o si son atacadas por una plaga. Como el problema se descubre de forma precoz, solo hay que tratar unas pocas plantas, y así se ahorran muchos productos, como fertilizantes, pesticidas o fitosanitarios. Esto hace que los gastos sean menores, tanto para quien cultiva como para quien acaba finalmente consumiendo los productos. Además, los residuos que quedan en las plantas después de un tratamiento disminuyen mucho.

Con esta estrategia, el proyecto de investigación MAC-INTERREG APOGEO desarrolla drones con cámaras multi e hiperespectrales, programas de ordenador que interpretan los datos para dar al agricultor un informe rápido de la situación de sus cultivos y nuevos fitosanitarios más selectivos y respetuosos con el medio ambiente. Aunque el proyecto se centra en viñedos, los resultados pueden extrapolarse a muchos tipos de cosechas, desde frutales a hortalizas. La iniciativa, que cuenta con la participación de varias universidades de Canarias y Madeira, el CSIC, la Dirección General de Agricultura del Gobierno de Canarias, cabildos insulares y asociaciones de viticultores, supone también la realización de cursos de formación para jóvenes agricultores. Con ello, se busca contribuir a que la gente se anime a volver al campo, pueda obtener buenas ganancias y de pie a una economía local y sostenible.

*Alicia Boto es investigadora en el Instituto de Productos Naturales y Agrobiología (IPNA) del CSIC.

APOGEO es un proyecto de investigación coordinado INTERREG-MAC en el que participa el Instituto de Productos Naturales y Agrobiología del CSIC, La Laguna, Tenerife, Canarias, y que lidera el Instituto Universitario de Microlectrónica Aplicada de la Universidad de Las Palmas de Gran Canaria. También participa la Dirección General de Agricultura del Gobierno de Canarias, la Universidad de Madeira, Cabildos, y empresas.