Entradas etiquetadas como ‘CSIC Divulga’

Los Indianos de La Palma: el carnaval migrante

Por Consuelo Naranjo Orovio y Mar Gulis (CSIC)*

De no ser por la pandemia, hoy 15 de febrero la localidad canaria Santa Cruz de La Palma se habría llenado de gente vestida de blanco, con trajes de lino y sombreros, como ocurre cada lunes de carnaval. En su camino al ayuntamiento para esperar a la Negra Tomasa, protagonista del carnaval palmero, la multitud cubriría la ciudad de un manto blanco al sacudir con sus propias manos botes de polvos de talco. Y ritmos procedentes de Cuba, como las habaneras, las guarachas o las guajiras, sonarían en cada esquina. Más o menos así se podría resumir la fiesta de Los Indianos de La Palma, una curiosa tradición que rememora el pasado migratorio de España.

Celebración de Los Indianos en la Plaza de España en Santa Cruz de La Palma. / Ayuntamiento de Santa Cruz de La Palma - Wikipedia

Celebración de Los Indianos en la Plaza de España en Santa Cruz de La Palma. / Ayuntamiento de Santa Cruz de La Palma – Wikipedia

El origen de esta celebración se remonta a la corriente migratoria hacia Cuba, que tras el final del imperio español en 1898 no terminó, sino todo lo contrario. El flujo continuo de emigrantes, así como las relaciones comerciales y familiares que se mantuvieron, ayudaron a conservar la herencia hispana como parte importante de la cultura e identidad cubanas y viceversa. La fiesta de Los Indianos representa el momento en el que los habitantes de la capital isleña, tras divisar los veleros que llegaban de Cuba, iban a recibir a los llamados ‘indianos’, algunos de los cuales regresaban con fortuna. Quienes atracaban en La Palma vestían con la indumentaria blanca característica cubana y otras costumbres traídas desde el otro lado del Atlántico.

“Se oía hablar más de Cuba, de La Habana, de Caibarién, de Sancti Spíritus… que de Gran Canaria”, comentaba un anciano de La Palma, mientras trataba de recordar los nombres de todas las personas de su pueblo que habían partido a Cuba. La isla caribeña era, en el siglo XIX y gran parte del XX, el lugar de esperanza y promesa de una vida mejor para los isleños, como eran llamados los canarios allí. Con el paso de los años ‘hacer las Américas’ se convirtió para muchos en un viaje de ida y vuelta.

Indumentaria característica de Los Indianos. / Ayuntamiento de Santa Cruz de La Palma

Indumentaria característica de Los Indianos. / Ayuntamiento de Santa Cruz de La Palma

Pero, ¿por qué Cuba? La inmigración en Cuba alcanzó cifras muy altas a partir de las últimas décadas del siglo XIX. Esto obedeció a diferentes factores, algunos de ellos presentes en la isla desde los primeros años de siglo: política de colonización, miedo a la ‘africanización’ y deseos de ‘blanquear’ la población, así como la necesidad de mano de obra barata y abundante para realizar tareas agrícolas, en especial el corte de la caña (zafra). La demanda de trabajadores fue incrementándose a partir de la crisis del sistema esclavista, la expansión de la industria azucarera y el aumento de la capacidad productiva, fundamentalmente a partir de los años ochenta del siglo XIX. En los proyectos de colonización basados en la migración de trabajadores destacó la preferencia por los canarios por su proximidad cultural y familiar a Cuba y sus conocimientos agrícolas.

Como en otros países, el crecimiento económico provocó el desarrollo del mercado interno y la expansión del sector servicios, de manera especial en el medio urbano. Todo ello demandó nuevos trabajadores. El trabajo en el campo fue cubierto principalmente con la contratación temporal de jornaleros españoles. Muchos de los que participaron en esta migración, conocida con el nombre de ‘golondrina’, eran canarios, migrantes temporales que trabajaron aquí y allá, aprovechando que el tiempo de las cosechas era diferente en Canarias y en Cuba.

A partir de los primeros años de la década de 1910 comenzaron a llegar braceros antillanos, sobre todo jamaicanos y haitianos, que cubrieron la continua demanda de los centrales azucareros. Cuba sirve de ejemplo para ver la correlación entre crecimiento económico y entrada de migrantes.

Índice de correlación entre producción azucarera, cotización del azúcar y entrada de inmigrantes españoles, de 1900 a 1930 en Cuba.

Índice de correlación entre producción azucarera, cotización del azúcar y entrada de inmigrantes españoles, de 1900 a 1930 en Cuba.

En el total de la inmigración en Cuba, el grupo que registró más entradas a la isla fue el español. La inmigración española representó entre el 70% y el 80% de la inmigración total entre los años 1917 y 1921. Sin embargo, a partir de 1921, el flujo de inmigrantes descendió de forma brusca como consecuencia de la crisis económica provocada por la caída del precio del azúcar en el mercado internacional. Aunque en los años siguientes la migración a Cuba continuó, nunca llegó a alcanzar las cifras de las décadas anteriores.

‘Hacer las Américas’

El Atlántico fue el entorno en el que se configuró un nuevo mundo. Un mar que más allá de un espacio geográfico fue el escenario en el que se conformó un sistema de relaciones y de culturas en el que tanto migrantes, esclavizados africanos y personas libres conectaron pueblos distantes. Entre los puertos de África, Europa y América se transportaban mercancías, ideas y tecnología, pero también maneras de hablar y de bailar, así como formas de vivir, de pensar y de sentir. La búsqueda de la fortuna, la existencia de familiares, amigos y vecinos, o la necesidad económica animaron a centenares de miles de españoles a dejar su tierra y emigrar a Iberoamérica.

Las redes tejidas a ambos lados del Atlántico consiguieron que la familiaridad mitigara y redujera la lejanía. La tradición oral se encargó de construir un mito sobre América, sobre aquella ‘tierra prometida’ que simbolizaba el Nuevo Mundo. A la creación de este imaginario contribuyeron los relatos que contenían las cartas de aquellos que partieron, el dinero que algunos alcanzaban a reunir y enviar, y los llamados ‘indianos’ o ‘americanos’. Su regreso, y en ocasiones su riqueza, ayudó a construir el mito de ‘hacer las Américas’ y estimuló a emigrar a muchos jóvenes. En este mito, Cuba, Argentina, Brasil, Uruguay, México… y el joven español que un día decidió partir eran los protagonistas.

 

*Consuelo Naranjo Orovio es profesora de investigación del Instituto de Historia del CSIC y directora del proyecto europeo ConnecCaribbean, además de autora de Las migraciones de España a Iberoamérica desde la Independencia, de la colección de divulgación ¿Qué sabemos de?, disponible en la Editorial CSIC y Los Libros de la Catarata.

¿Cómo se mide el tiempo en Marte?

Por Juan Ángel Vaquerizo (CSIC-INTA)*

La respuesta, a priori, es sencilla: en Marte, el tiempo se mide utilizando el Sol. El segundo planeta más pequeño del Sistema Solar y cuarto en cercanía al Sol gira en torno a su eje con un periodo de 24,6 horas, lo que supone que el día solar marciano es aproximadamente un 3% más largo que el día solar terrestre. En concreto, un día en Marte tiene una duración de 24 horas, 39 minutos y 32,55 segundos, lo que se denomina sol.

Amanecer en Marte. / NASA/JPL-Caltech/Doug Ellison/PIA 14293

Amanecer en Marte. / NASA/JPL-Caltech/Doug Ellison/PIA 14293

En la superficie de Marte se utiliza la hora solar local para la medida del tiempo de las misiones que han aterrizado allí. Cada misión tiene su propio tiempo solar local, que estará determinado por su ubicación en el planeta. A pesar de que Marte dispone de un meridiano cero para referir las longitudes geográficas, no tiene zonas horarias definidas a partir de ese meridiano como ocurre en la Tierra. Por tanto, la separación en longitud geográfica de las misiones entre sí determinará la diferencia horaria entre las mismas.

Para determinar el calendario marciano hubo más controversia. Sin embargo, para el día a día de las misiones que han aterrizado en Marte, se ha optado por un criterio más simple: contar los días (soles) en Marte a partir del momento del aterrizaje, que pasa a denominarse sol 0. Por ejemplo, la misión InSight de la NASA (que, por cierto, contiene un instrumento español desarrollado en el Centro de Astrobiología (CSIC-INTA): los sensores mediambientales TWINS) ha sido la última en aterrizar sobre la superficie marciana. Lo hizo el 26 de noviembre de 2018, lo que supone que la nave pasa en Marte hoy su sol 784.

InSight en la superficie marciana. / NASA/JPL-Caltech

InSight en la superficie marciana. / NASA/JPL-Caltech

Las estaciones en el planeta rojo

Del mismo modo que un sol en Marte dura más que un día en la Tierra, la duración del año marciano es también mayor que el terrestre, pues al estar más alejado, describe su órbita alrededor del Sol más lentamente que la Tierra. Un año marciano tiene 668,6 soles, lo que equivale a 687 días terrestres. Esta mayor duración del año hace que las estaciones en Marte sean más largas que las terrestres.

Entonces, ¿hay también estaciones en Marte? Pues sí, en Marte se producen estaciones a lo largo del año debido a que el eje de rotación de Marte también está inclinado respecto al plano de la eclíptica (el plano imaginario en el que los planetas del Sistema Solar giran alrededor del Sol). Esta inclinación del eje, conocida como oblicuidad, es de 25,2° en Marte, un poco mayor que los 23,4393° de la Tierra. Además, la órbita de Marte es más excéntrica que la terrestre.

La órbita más elíptica de Marte provoca que sus estaciones tengan duraciones muy diferentes entre sí, de manera que las primaveras marcianas en el hemisferio norte y los otoños en el hemisferio sur duran 194 soles, siendo así las estaciones más largas. Las estaciones más cortas en Marte son los otoños en el hemisferio norte y las primaveras en el sur, con una duración de solo 142 soles. Los inviernos en el hemisferio norte y los veranos en el sur duran 154 soles; y, finalmente, los veranos en el hemisferio norte y los inviernos en el sur duran 178 soles.

A vueltas con el calendario marciano

Pero, ¿qué ocurre con el calendario marciano? En la Tierra los meses vienen determinados por el ciclo lunar, pero Marte tiene dos lunas, los dos satélites naturales llamados Fobos y Deimos. Como curiosidad, las lunas del planeta vecino reciben sus nombres de la mitología griega: Fobos significa ‘miedo’ y Deimos ‘terror’, y son los nombres de los caballos que tiraban del carro de Ares, el dios griego de la guerra, equivalente al dios romano Marte.

Captura de parte de la órbita que realiza Fobos alrededor de Marte. / NASA, ESA y Z. Levay (STScl)

Captura de parte de la órbita que realiza Fobos alrededor de Marte. / NASA, ESA y Z. Levay (STScl)

Los periodos de Fobos y Deimos son muy cortos, por lo que utilizar el mismo sistema que en la Tierra resulta inútil. Por ello, se eligió dividir el año en segmentos más o menos similares, más largos que nuestros meses, que cubrieran todo el periodo orbital. Los astrónomos Percival Lowell, Andrew E. Douglass y William H. Pickering, Robert G. Aitken y sir Patrick Moore diseñaron calendarios marcianos con mayor o menor suerte, pero no fue hasta 1986 cuando el ingeniero norteamericano Thomas Gangale publicó el calendario dariano, llamado así en honor a su hijo Darius.

En el calendario dariano, el año marciano se divide en 24 meses para acomodarlo manteniendo la noción de un “mes” razonablemente similar a la duración de un mes de la Tierra. El año cero del calendario se situó inicialmente en 1975, año del primer aterrizaje con éxito en la superficie de Marte de una nave estadounidense, con las misiones Viking. Más tarde, se definió como nuevo año cero para el calendario el año 1609, como doble homenaje a la publicación de las leyes de Kepler y la primera observación con un telescopio realizada por Galileo.

MY (martian year) y Ls (longitud planetocéntrica)

La Planetary Society decidió finalmente no emplear un calendario como tal, sino utilizar la longitud planetocéntrica del Sol, conocida como Ls (ángulo que indica la posición de Marte en su órbita alrededor del Sol), para medir la época del año en Marte y que funcionaría a modo de fecha marciana. Así, el valor Ls = 0° corresponde al paso de Marte por el punto vernal, es decir, el equinoccio de primavera en el hemisferio norte marciano; el valor 90° corresponde al solsticio de verano boreal; 180° al equinoccio de otoño boreal y 270° al solsticio de invierno boreal.

En este calendario, el año marciano 1 o MY1 (por sus siglas en inglés) comenzó oficialmente el día 11 de abril de 1955 a las 00:00 h UTC y terminó el 26 de febrero de 1957 a las 00:00 h UTC. El motivo de elegir esta fecha fue hacer coincidir el comienzo del calendario con la tormenta global de polvo que se observó en Marte en 1956. El comienzo de la estación de tormentas de polvo en Marte se produce justo después del paso por el perihelio, el punto de la órbita más cercana al Sol y donde más rápido se desplaza, sobre Ls = 260°.

Posteriormente, el calendario se extendió y se determinó el año marciano 0, MY0, que comenzó el día 24 de mayo de 1953 a las 00:00 h UTC. Cualquier año anterior llevaría delante el signo menos. Por tanto, MY-1 comenzó el 7 de julio de 1951, el MY-2 el 19 de agosto de 1949, y así sucesivamente. Como curiosidad, la primera observación conocida de Marte con un telescopio, realizada por Galileo a finales del año 1610, correspondería al MY-183.

El róver Curiosity en Marte. / NASA/JPL-Caltech/MSSS

El róver Curiosity en Marte. / NASA/JPL-Caltech/MSSS

Así pues, con este criterio de designación de fechas, el róver Curiosity (que lleva a bordo el otro instrumento español en Marte: REMS, la estación medioambiental también del Centro de Astrobiología) aterrizó en Marte el MY31 Ls150, es decir, el 6 de agosto de 2012. Y por su parte, InSight el MY35 Ls112.

Sea cual fuere el modo de medir el tiempo en Marte, dado que la idea de enviar seres humanos a explorar Marte es ya un proyecto consolidado, no estaría de más ir buscando un criterio unificado. No vaya a ser que el primer ser humano que ponga el pie en Marte no sepa cómo poner su reloj en hora.

 

* Juan Ángel Vaquerizo es el responsable de la Unidad de Cultura Científica del Centro de Astrobiología (CSIC-INTA) y autor del libro ‘Marte y el enigma de la vida’ (CSIC-Catarata) de la colección ¿Qué sabemos de?

Contaminación lumínica: ¿cómo nos afecta el exceso de luz?

Por Alicia Pelegrina (CSIC)*

Un tercio de la población mundial ya no puede ver la vía láctea y el 80% de la población mundial vive bajo cielos contaminados, como recoge el Nuevo Atlas de la Contaminación Lumínica publicado en 2016. La grandiosidad del cielo nocturno ha despertado la curiosidad y el interés de la humanidad desde tiempos inmemoriales. Su observación fue determinante para el desarrollo de la navegación por mar o para determinar el inicio de la época de siembra en las sociedades agrícolas. Nos ha permitido conocer la posición de nuestro planeta en la galaxia, descubrir que compartimos composición química con las estrellas o que estas se mueven en esa bóveda que cubre nuestras cabezas, al mismo tiempo que la Tierra gira sobre su eje polar, ofreciéndonos un majestuoso baile estelar. Este espectáculo por desgracia cada vez está al alcance de menos personas debido a la contaminación lumínica.

Contaminación lumínica vista desde el Observatorio de Sierra Nevada en Granada. / OSN

Pero, ¿qué es la contaminación lumínica? Ni más ni menos que la alteración de los niveles naturales de luz que tenemos en nuestro entorno durante la noche. Desde esa farola cuyo resplandor entra por nuestra ventana y no nos permite dormir, hasta carreteras desiertas en las que a las cinco de la madrugada parece ser de día, o los puntos de luz blanca que apuntan hacia el cielo.

La contaminación lumínica parece un fenómeno imparable: cada año crece en torno a un 2,2% tanto la superficie mundial iluminada como la intensidad de brillo del cielo nocturno. Y no nos engañemos, aunque no ocupe espacio, no huela o no haga ruido, se trata de contaminación en el sentido estricto de la palabra y supone una amenaza no solo para las observaciones astronómicas, sino para nuestros ecosistemas y nuestra salud.

Las tortugas al nacer confunden las luces de los paseos marítimos de las zonas costeras con la luz de la luna sobre el mar. Al eclosionar los huevos, ponen rumbo equivocado y terminan siendo víctimas de predadores o de la deshidratación. Las luciérnagas están desapareciendo porque la sobreiluminación imposibilita el encuentro de los amantes: los machos son incapaces de reconocer la luz que emite la hembra –llamada bioluminiscencia– y cada vez nacen menos crías de luciérnagas. Las aves migratorias ven alterada su hoja de ruta, desorientadas por las luces de las grandes ciudades… Y así un largo etcétera de consecuencias negativas para nuestro entorno.

Mapa mundial de contaminación lumínica. / Falchi et. Al.

Cronodisrupción: cuando nuestro reloj interno se estropea

Nuestro organismo tiene un reloj interno que regula una serie de parámetros biológicos que no son constantes, ya que varían en función de si es de día o de noche. Estas fluctuaciones que se repiten día tras día cada 24 horas se conocen como ciclos circadianos. Por ejemplo, la secreción de cortisol, esa hormona que nos hace estar estresados y enfadados con todo el mundo, está regulada por este reloj, y es mayor por la mañana que por la noche. La secreción de melatonina o la presión arterial también responden a estas fluctuaciones día-noche. Pero ¿cómo sabe este reloj si tiene que mandar la orden de producir más o menos cortisol? A través de las señales que recibe del medio a través de nuestros ojos. Por ejemplo, cuando es de noche y percibimos oscuridad, este reloj interno envía la orden de disminuir la secreción de cortisol.

Sin embargo, nuestra sociedad nunca duerme, es un sistema ‘24/7 non stop’ que implica una alteración del ciclo natural luz-oscuridad debido al abuso de luz artificial durante la noche. De esta forma, nuestro reloj se vuelve loco y comienza a enviar por la noche señales que debería enviar durante la mañana. Este caos es lo que se conoce como cronodisrupción. Muchos estudios asocian este fenómeno con la aparición de enfermedades cardiovasculares, insomnio, falta de concentración, problemas de fertilidad, alteraciones alimenticias e incluso algunos tipos de cáncer.

Contaminación lumínica en Europa. / Falchi et. Al.

La paradoja de las luces led

En los últimos años hemos podido observar el aumento generalizado del uso de luces led en nuestro alumbrado público. Se trata de una tecnología de iluminación que presenta ciertas ventajas con respecto a otro tipo de sistemas. Las luces led, por ejemplo, permiten regular su intensidad y escoger el color de la luz que emiten, además de que su uso supone un ahorro energético. Sin embargo, a pesar de la sustitución masiva de los tradicionales sistemas de alumbrado público por leds a los que hemos asistido en los últimos años, la contaminación lumínica no ha descendido. La razón: un efecto rebote.

El ahorro energético que supone el uso de led lleva a iluminar más superficie o a mantener las luminarias más tiempo encendidas con el mismo coste en la factura del ayuntamiento correspondiente. Y como aún no hemos interiorizado que la contaminación lumínica es un problema ambiental grave y que no somos una sociedad mejor y más moderna por tener más luces encendidas, nuestros políticos, que responden a la demanda de la ciudadanía, siguen iluminando e iluminando, porque así somos mejores que los demás (véase el ejemplo claro del municipio de Vigo).

Contaminación lumínica vista desde el espacio

Ante nuestros ojos se plantea un reto importante: aunar esfuerzos en pro de una iluminación responsable que garantice un cielo suficientemente oscuro. Lo necesitamos tanto para preservar nuestra salud y la de nuestros ecosistemas, como para garantizar el desarrollo científico y del conocimiento. Debemos cuidar especialmente los cielos de los observatorios astronómicos, nuestras ventanas al universo. Y tampoco podemos olvidar que el cielo es un recurso turístico que puede convertirse en motor de desarrollo sostenible en zonas rurales.

La declaración en 2010 del cielo oscuro como Patrimonio de la Humanidad por la UNESCO pone de manifiesto la relevancia de este recurso, a menudo olvidado porque estamos acostumbrados a su silencioso acompañamiento en nuestro día a día. Así, el derecho a un cielo nocturno no contaminado debe convertirse en objetivo común, por nosotros y por quienes vendrán.

*Alicia Pelegrina es responsable de la Oficina Técnica Severo Ochoa del Instituto de Astrofísica de Andalucía (IAA) del CSIC, y coordina la Oficina de Calidad del Cielo del IAA. Este texto es parte del monólogo con el que la investigadora obtuvo el segundo premio en la edición 2020 de Famelab España.

 

 

Lecturas científicas para días de manta y sofá

Por Mar Gulis (CSIC)

Estas navidades van a ser diferentes. Quizá no podamos hacer todos los planes que nos gustaría, pero a cambio tendremos más tiempo para estar en casa y dedicarnos, por ejemplo, a leer. Desde Ciencia para llevar te proponemos algunos de los últimos títulos de la colección de divulgación ‘¿Qué sabemos de?’ (CSIC-Catarata) para estos días de manta y sofá. Los efectos del ejercicio físico en nuestro cerebro, los últimos avances de la exploración marciana o qué debemos hacer para protegernos de las ciberestafas son algunos de los temas de los que tratan. ¿Te animas a descubrirlos?

¿Cómo se pesa un átomo?

Nuestra primera propuesta te ofrece un viaje al nanomundo sin salir de casa. Pesar objetos diminutos como una bacteria, un virus o incluso un átomo, medir la presión sanguínea en el interior de las venas o posicionar aviones y satélites no sería posible sin las aplicaciones derivadas de la nanomecánica. Daniel Ramos Vega, investigador del CSIC, presenta los métodos con los que podemos visualizar e intervenir sobre la materia en la escala de los nanómetros, es decir, la milmillonésima parte de un metro (0,000000001 m) en el libro Nanomecánica.

En esta escala, las propiedades físicas y químicas de los objetos cambian y estos se comportan de un modo diferente a como lo hacen en el mundo macroscópico. Esto se aprovecha para desarrollar un sinfín de nuevos dispositivos descritos en el texto, como balanzas atómicas, narices electrónicas que dotan de olfato a los robots, sensores para sistemas de posicionamiento, acelerómetros que hacen saltar el airbag de los coches en caso de accidente o giroscopios instalados en teléfonos móviles y mandos de consolas.

Los efectos del ejercicio físico en nuestro cerebro

Todos sabemos que la actividad física resulta beneficiosa para nuestro organismo, incluido el cerebro. Ahora bien, ¿todo tipo de ejercicio genera efectos saludables?, ¿es cierto que el deporte ayuda a retrasar el envejecimiento?, ¿qué cambios se producen en nuestras neuronas cuando lo practicamos? Estas y otras cuestiones tienen respuesta en Cerebro y ejercicio. Los investigadores del CSIC Coral Sanfeliu y José Luis Trejo presentan las evidencias científicas de cómo la actividad física y deportiva moldea el cerebro humano y explican los efectos del ejercicio sobre la cognición, el estado de ánimo y la salud cerebral a todas las edades.

A lo largo del texto los investigadores se adentran en los mecanismos genéticos, moleculares y celulares que sustentan los innumerables beneficios del ejercicio. “Entre otros efectos positivos, produce un incremento de la capacidad cognitiva y de la formación de neuronas nuevas (potencia la capacidad de análisis matemático y la habilidad lingüística); hace crecer el flujo sanguíneo en el cerebro; incrementa la funcionalidad y disponibilidad de neurotransmisores clave e induce neuroprotección en todas las áreas cerebrales analizadas hasta la fecha”, afirman Sanfeliu y Trejo. Aparte de las consecuencias directas, el deporte produce también efectos indirectos, como ocurre con los individuos que se benefician del ejercicio físico que realizaron sus progenitores. Además, el ejercicio físico puede constituir una vía para hacer frente al envejecimiento y contribuye al bienestar psicológico. Después de leer este libro, seguro que te dan ganas de calzarte las zapatillas y ponerte en movimiento.

Enfermedades raras, patologías desconocidas con gran impacto económico y social

Son trastornos o condiciones muy diversos e infrecuentes, en su mayoría tienen origen genético y suelen aparecer en la infancia, por lo que se padecen durante casi toda la vida. Las enfermedades raras, englobadas bajo este término hace tan solo cuatro décadas, solo afectan a menos de 5 individuos por 10.000 habitantes, pero constituyen un problema de salud global. El investigador Francesc Palau hace divulgación sobre el origen, diagnóstico, tratamiento, atención sanitaria e investigación de estas patologías que, en términos globales, tienen incidencia sobre 26 millones de personas en Europa.

El libro Enfermedades raras presenta una realidad muy poco conocida por la ciudadanía. “El contraste entre los bajos datos epidemiológicos de la población afectada y su elevada diversidad y heterogeneidad, nos pone ante la paradoja de la rareza: las enfermedades son raras, pero los pacientes con enfermedades raras son muchos”. La distrofia muscular de Duchenne, la fibrosis quística o la esclerodermia son solo tres de las 6.172 enfermedades raras descritas hasta la fecha. Debido a su cronicidad, complejidad y la necesidad de una mayor atención sanitaria, los recursos que consumen son muy elevados.

La investigación biomédica es el camino para cambiar el futuro de las personas afectadas por una de estas patologías, pero también para esclarecer el complejo modo de enfermar del ser humano. “Actuaciones sobre las enfermedades raras son también acciones que nos ayudan a conocer y enfocar mejor las enfermedades comunes”, apunta Palau.

Del tupperware al teletrabajo: ¿cómo se hace la innovación?

La siguiente propuesta está protagonizada por un término usado hasta la saciedad. No hay ningún ámbito en el que la palabra innovación no aparezca como el talismán que soluciona todos los problemas. Pero, ¿qué se entiende en la actualidad por innovación?, ¿qué hacen Spotify, Zara o Amazon para triunfar innovando? o ¿cuáles son las cualidades de una persona innovadora? Los investigadores Elena Castro e Ignacio Fernández han escrito La innovación y sus protagonistas con la intención de explicar el alcance y dimensiones de este fenómeno y su evolución. “En este mundo globalizado, la supervivencia de las empresas y muchas actividades sociales pasan por la capacidad para desarrollar productos y procesos nuevos o mejorados, pero tratando de que tales innovaciones contribuyan a los objetivos sociales que van a permitir un futuro más sostenible y equitativo y que contribuya al bienestar de las personas”, apuntan los investigadores del CSIC.

La innovación es mucho más que nuevos productos o servicios, ya que también se puede innovar en los procesos de fabricación o en el desarrollo de políticas sociales, por ejemplo. Por otro lado, no solo hace falta una buena idea: “para que las invenciones sean consideradas innovaciones tienen que ser aplicadas en un proceso productivo, o su resultado ha de llegar al mercado o a la sociedad”, señalan Castro y Fernández. El texto ofrece otros muchos ejemplos de innovación, y da pistas de los atributos que han de tener las personas innovadoras. Además, los autores hacen hincapié en que no solo innovan las empresas, sino también otras organizaciones sociales. Una lectura imprescindible si quieres saber el verdadero alcance de la innovación y usar este término con propiedad.

Marte y el enigma de la vida

Lo han llamado dios de la guerra, Horus en el horizonte y estrella de fuego. Marte, ese punto rojo en el firmamento, siempre ha estado ahí, ante nuestros ojos, desafiando nuestra curiosidad. Desde la Antigüedad, el ser humano no ha cesado de observarlo y, lejos de agotar las preguntas, el más habitable de los planetas a nuestro alcance sigue ofreciéndonos un relato apasionante. Juan Ángel Vaquerizo, astrofísico y divulgador del CSIC ha escrito Marte y el enigma de la vida. El número 117 de la colección condensa el conocimiento que tenemos hasta el momento del planeta, explica sus peculiaridades y semejanzas con la Tierra, la historia de su exploración y los retos que se abren ante las nuevas misiones lanzadas hacia territorio marciano.

Marte

“Marte es especial porque ha provocado un profundo impacto en la cultura y ha impulsado de modo decisivo el avance de la ciencia en los últimos siglos. A día de hoy, es el primer objetivo astrobiológico, ya que es el mejor escenario para demostrar la existencia de vida fuera de la Tierra”, señala Vaquerizo. “Estamos viviendo momentos cruciales en la exploración marciana. Tanto es así que el primer ser humano que pise Marte ya ha nacido, y todo apunta a que algunos de los grandes enigmas que aún esconde el planeta rojo podrían ser resueltos durante las próximas décadas”, añade el autor. Si quieres saber más sobre estos enigmas y sus posibles respuestas, no te pierdas esta lectura marciana.

Matemáticas para la pandemia

Desde el inicio de la pandemia ocasionada por el virus SARS-CoV-2 contamos y medimos sin descanso. Cada día recibimos cantidades ingentes de información en forma de gráficos, tablas e infografías, y hemos incorporado a nuestro vocabulario expresiones como ‘ritmo de contagio’, ‘aplanar la curva’ o ‘crecimiento exponencial’. Los investigadores Manuel de León y Antonio Gómez Corral nos ayudan a entender estos términos en el libro Las matemáticas de la pandemia.

El texto recoge las herramientas que se utilizan para comprender el proceso de transmisión de enfermedades como la viruela, la malaria o la COVID-19 y expone cómo esta disciplina ayuda a diseñar medidas para combatirlas. En sus páginas se explica, entre otros, el modelo SIR. Formulado hace casi un siglo, su nombre alude a los tres grupos en los que se clasifican individuos de una población según su estado ante una enfermedad: susceptible (S), infectado (I) y resistente o recuperado (R).

Sobre las lecciones aprendidas durante la pandemia actual, los autores ponen el foco en la rapidez de acceso a los datos y en su calidad para hacer posible un análisis adecuado. “Sean cuales sean las características y peculiaridades que se incorporen al modelo matemático que describa la propagación del SARS-CoV-2, sus virtudes y limitaciones estarán siempre marcadas por los datos que lo soporten, es decir, que permitan su construcción y validación”, explican.

Las amenazas del ciberespacio

¿Qué tiene que ver una web que instala cookies de rastreo sin consentimiento con un programa informático malicioso capaz de sabotear una central nuclear? ¿Y con un correo fraudulento en el que nuestro supuesto jefe nos ordena hacer una transferencia urgente? Todas estas acciones, estén o no vinculadas, suponen una amenaza para la ciberseguridad, una disciplina de reciente cuño a la que está dedicado el último libro de la colección. Escrito por los investigadores del CSIC David Arroyo, Víctor Gayoso y Luis Hernández, el texto aborda un problema, el de la seguridad de la información almacenada o transmitida en el ciberespacio, que no ha dejado de crecer en los últimos años. Un ejemplo de ello es que en 2019 los ciberdelitos aumentaron en España un 35% con respecto al año anterior.

Estas prácticas afectan a particulares, empresas y estados, que sufren sus consecuencias más allá del mundo virtual. “El ciberespacio no es un mero anexo del mundo real, sino uno de los elementos que actualmente lo configuran, por lo que se puede constituir en causa y efecto en el mundo físico”, precisan los autores. En la detallada descripción de amenazas que recoge el libro Ciberseguridad, dos de las que reciben mayor atención son el phishing (homófono inglés de fishing: ‘pesca’), uno de los ataques más extendidos en la actualidad, y las herramientas de teletrabajo, que desde marzo de 2020 han experimentado un crecimiento estimado del 84% y que a juicio de los autores se han adoptado de modo improvisado.

Ciberseguridad

Además de exponer un amplio catálogo de ciberriesgos, los investigadores ofrecen consejos y dan pautas para protegernos de los peligros del ciberespacio.

Todos los libros de la colección ‘¿Qué sabemos de?’ están escritos por el personal investigador del CSIC. Además de los que te hemos contado, la serie te ofrece otros cien títulos para saciar tu curiosidad científica. Si eres ese tipo de personas que disfrutan con el olor y el tacto del papel, los tienes en formato bolsillo, y, si prefieres la pantalla, también los puedes conseguir en formato electrónico. ¡Que la ciencia te acompañe!

¿Existen los virus ‘buenos’?

Por Mar Gulis (CSIC)

La respuesta es sí. Entre los 5.000 virus descritos por la comunidad científica, hay algunos devastadores para el ser humano como el SARS-CoV-2, causante de la pandemia que vivimos desde hace meses, pero también existen otros que pueden ser beneficiosos para nuestra salud. Los bacteriófagos (fagos) pertenecen a este segundo grupo y se perfilan como la solución contra las bacterias resistentes a los antibióticos, que cada año causan 33.000 muertes en la Unión Europea y 700.000 en todo el mundo.

Ejemplares de bacteriófago phiA72 de ‘Staphylococcus aureus’ aislados en el Instituto de Productos Lácteos de Asturias (IPLA-CSIC). / Pilar García

Como cualquier otro agente vírico, los fagos son parásitos intracelulares que necesitan infectar una célula, en este caso una bacteria, para multiplicarse en su interior, pero, a diferencia de otros virus, resultan totalmente inocuos para humanos, otros animales, plantas y el medioambiente (en este vídeo puedes ver cómo se comportan). Si los comparamos con los antibióticos disponibles –muchos incapaces de eliminar las infecciones provocadas por bacterias– tienen otras ventajas. “Son muy específicos, por lo que solo eliminan el patógeno de interés, mientras que los antibióticos suelen ser de amplio espectro; infectan por igual bacterias resistentes y bacterias sensibles a los antibióticos; y se pueden autorreplicar”, explican Lucía Fernández, Diana Gutiérrez, Ana Rodríguez y Pilar García, investigadoras del CSIC en el Instituto de Productos Lácteos de Asturias (IPLA) y autoras de Los bacteriófagos. Los virus que combaten infecciones (CSIC-Catarata). Además, añaden, “la infección de la bacteria por parte del fago produce más fagos, con lo que la capacidad antimicrobiana aumenta, al contrario de lo que sucede con los antibióticos, cuya dosis efectiva disminuye a lo largo del tiempo”.

Invisibilizados por los antibióticos

Los antibióticos y los bacteriófagos tienen historias paralelas. Ambos se descubrieron a principios del siglo XX, pero su devenir ha sido totalmente distinto. En 1917 el microbiólogo Félix d’Herelle observó cómo cultivos bacterianos que crecían en un medio líquido desaparecían de la noche a la mañana si se les añadía agua residual filtrada, lo que solo se podía interpretar como consecuencia de un virus filtrable, parásito de las bacterias. Félix d’Herelle llamó bacteriófagos (comedores de bacterias) a estos virus, y tanto él como otros microbiólogos llegaron a supervisar la comercialización de productos fágicos para uso clínico en los años 20. Incluso la compañía estadounidense Lilly puso en el mercado compuestos basados en bacteriófagos. Sin embargo, su potencial terapéutico quedó relegado en favor de los antibióticos.

Una década más tarde, en el año 1928, el doctor Alexander Fleming realizó uno de los descubrimientos más importantes del siglo: la penicilina. Algunos años después comenzó a producirse a gran escala y fue utilizada a nivel mundial para el tratamiento de infecciones humanas y animales. Más adelante, en los años cuarenta y cincuenta, tuvo lugar lo que se conoce como edad de oro de los antibióticos, durante la cual se llevó a cabo el descubrimiento de todos los antibióticos conocidos y utilizados hasta la fecha.

Este comienzo y desarrollo estelar tiene un final un tanto fatídico, debido a su pérdida de eficacia. “A pesar de la euforia inicial, poco tiempo después se comprobó que las bacterias pueden evolucionar y adquirir diversos mecanismos de resistencia a estos compuestos”, señalan las autoras. Este proceso de selección natural se ha visto incrementado por el uso abusivo de los antibióticos, de manera que la resistencia a antimicrobianos se ha convertido en un problema de nivel global. “Según estudios realizados por la OMS, se prevé que en el año 2050 las bacterias multirresistentes serán la principal causa de muerte de la población humana”, agregan.

Mientras tanto, ¿qué sucedió con los bacteriófagos? Las investigadoras explican en su libro un hecho poco conocido. “Independientemente del abandono del uso terapéutico de los bacteriófagos en Occidente, varios grupos de investigación de países de Europa del Este continuaron con esta línea de trabajo, debido sobre todo a la baja disponibilidad de antibióticos y a su alto precio”. De hecho, el uso hospitalario de los fagos se ha mantenido en Polonia, Rusia y antiguas repúblicas soviéticas como Georgia, donde se encuentra el Instituto Eliava, fundado en 1923 y considerado actualmente el centro de referencia mundial en la aplicación clínica de fagos.

Morfología de los bacteriófagos. A: representación esquemática de la morfología de un bacteriófago. B: microfotografías electrónicas de distintos bacteriófagos aislados en los laboratorios del IPLA-CSIC. / Diana Gutiérrez

Así, la terapia fágica no es un tratamiento nada novedoso, y ahora parece resurgir entre la comunidad científica occidental. Las científicas del IPLA así lo confirman: “entre los años 1987-2000 se obtuvieron resultados muy satisfactorios que demuestran la gran eficacia de los bacteriófagos en comparación con los antibióticos. A partir de ese momento, numerosos grupos de investigación han encaminado su trabajo hacia este campo, utilizando fagos de forma individual, como cócteles o en combinación con otros agentes antimicrobianos (antibióticos o desinfectantes) para la eliminación de las bacterias patógenas”.

En Occidente, el tratamiento de infecciones con fagos queda restringido a pacientes individuales, y solo con un uso compasivo, es decir, cuando no existen otras posibilidades para salvarles la vida o simplemente para aliviar su sufrimiento. No obstante, “a pesar de la falta de una regulación clara, se están llevando a cabo varios ensayos clínicos en diferentes países con resultados prometedores”, indican las biólogas.

Biocidas y desinfectantes

Además de la terapia fágica en humanos, estos virus presentan un amplio abanico de aplicaciones. En el ámbito de la veterinaria, la investigación se orienta al “uso de fagos como agentes profilácticos y terapéuticos en animales de granja, principalmente para tratar bacterias patógenas en pollos y cerdos”. Ya se aplican en algunos países como en EEUU como alternativa ‘amigable’ desde el punto de vista medioambiental a algunos de los productos fitosanitarios. Además, el hecho de que los fagos se aíslen de distintas fuentes naturales permite que sean registrados como biopesticidas y así ser utilizados en agricultura ecológica.

Bacteriófago phiIPLA-C1C de ‘Staphylococcus epidermidis’ aislado en el IPLA-CSIC. / Pilar García

El sector de la seguridad alimentaria también es prometedor para el empleo de los bacteriófagos, ya que “pueden servir como bioconservantes de alimentos, como desinfectantes de instalaciones industriales o incluso en el desarrollo de sistemas de identificación de contaminación bacteriana en los alimentos. De esta forma, se abarca cada etapa de elaboración del producto”, resumen las científicas del CSIC.

Una vez detectadas sus potencialidades, hay todo un campo de trabajo por delante para el aislamiento, la caracterización y la producción de fagos a gran escala. “En la actualidad se están diseñando métodos adecuados de producción y purificación para facilitar y abaratar su comercialización”, precisan las investigadoras.

Los requerimientos legales para la administración de productos fágicos también son otro paso imprescindible dentro del largo proceso que ha de recorrer todo compuesto antes de incorporarse al vademécum de medicamentos. En este ámbito hay diferencias notables entre los países donde existe una legislación específica para la terapia con fagos, como Polonia o Georgia, y otros países europeos donde solo se permite su uso compasivo. A este respecto, las investigadoras son optimistas: “en la práctica clínica existen aún esperanzas de que esta nueva estrategia de tratamiento de enfermedades infecciosas pueda llegar a tiempo para resolver la crisis actual. Algunos de los puntos clave que es preciso reforzar son el apoyo a la investigación básica y a los ensayos clínicos, así como una mayor interacción entre empresas biotecnológicas, farmacéuticas, centros de investigación y autoridades sanitarias”, concluyen.

 

Puentes que se derrumban y copas que estallan: el fenómeno de la resonancia mecánica

Por Daniel Ramos Vega y Mar Gulis (CSIC) *

El 12 de abril de 1831, una compañía del cuerpo de fusileros del ejército británico regresaba al cuartel después de unas maniobras militares. Al cruzar el puente de Broughton (Manchester), los 74 hombres que componían la compañía notaron un ligero balanceo. Comenzaron entonces a marcar el paso más firmemente e incluso llegaron a cantar canciones de marcha militar, cuando se escuchó un ruido atronador, como si de una descarga de armas se tratase. Uno de los cuatro pilares que sostenían la cadena que soportaba el peso del puente se desplomó y provocó su colapso: el puente acabó derrumbándose por completo sobre el río arrastrando consigo a 40 soldados. Por fortuna, en esa época del año aún no había crecido el nivel del agua y no hubo que lamentar víctimas mortales. Eso sí, 20 soldados resultaron heridos.

Puente de Tacoma Narrows oscilando

¿Por qué se derrumbó el puente? La causa más probable del colapso la encontramos en el fenómeno de la resonancia mecánica.

Para entenderlo, antes tenemos que hablar de ondas y frecuencias. Una onda es una perturbación que se trasmite por el espacio, lleva implícito un cambio de energía y puede viajar a través de diferentes materiales. Imaginemos por ejemplo las ondas que se generan cuando lanzamos una piedra a un estanque o cuando sacudimos una cuerda de arriba a abajo. Para definir una onda utilizamos conceptos como la amplitud, que es la distancia vertical entre el punto de máximo desplazamiento y el punto medio; el periodo, que se define como el tiempo completo en que la onda tarda en describir una oscilación completa; o la frecuencia, que es el número de veces que se repite la oscilación en un tiempo dado.

Onda, magnitud y frecuencia. / Daniel Ramos Vega.

Todo cuerpo presenta una o varias frecuencias especiales que se denominan frecuencias características o propias. Dependen de la elasticidad del objeto, sus dimensiones o su masa. Como los objetos transmiten mejor unas frecuencias que otras, cuando aplicamos una fuerza que oscila a la frecuencia propia del objeto, logramos hacer que el efecto se magnifique. Entonces decimos que entra en resonancia.

Una resonancia, por tanto, se produce cuando sometemos un cuerpo a una fuerza periódica igual a su frecuencia característica. En el caso del puente, la amplitud de las vibraciones es cada vez más grande, hasta el punto que se produce un colapso de la estructura. De esta forma, una fuerza relativamente pequeña, como pueden ser los pasos de unos soldados al marchar sobre él, puede causar una amplitud de oscilación muy grande.

Este curioso episodio tuvo una consecuencia inesperada que aún perdura hasta nuestros días: desde ese accidente, las tropas británicas tienen orden de romper la formación y el paso cuando cruzan un puente.

A lo largo de la historia ha habido episodios similares y han sido varios los puentes que han terminado derrumbándose por el efecto de la resonancia mecánica. Tal vez el más significativo sea el Puente de Tacoma Narrows (Washington), construido en 1940 y que acabó desplomándose violentamente cuatro meses después de su construcción. En este caso fue el viento el que provocó que el puente entrara en resonancia y hay varias filmaciones que muestran el momento del derrumbe.

Vibraciones que hacen estallar copas de cristal

Otro ejemplo de cómo la resonancia mecánica puede tener unos efectos cuanto menos sorprendentes es el siguiente. A principios del siglo XX la cantante de ópera australiana Nellie Melba era conocida por hacer estallar las copas de cristal al cantar. También el famoso tenor italiano Enrico Caruso conseguía este fenómeno cuando cantaba ópera. Y el marido de María Callas, considerada la cantante más eminente del siglo XX, afirmaba que se cortó el brazo al estallar una copa cuando su mujer ensayaba en casa.

¿Puede realmente una cantante de ópera hacer estallar una copa al cantar? La respuesta es sí y la razón es que se ha excitado la resonancia del cristal. Como hemos explicado, este fenómeno físico tiene lugar cuando se ejerce una fuerza sobre un cuerpo con una frecuencia que coincide con la frecuencia propia del sistema. Es lo que pasa cuando empujamos un columpio en el parque: no lo hacemos de cualquier forma, sino que damos un pequeño empujón en el momento adecuado, justo cuando el columpio alcanza su máxima amplitud. Si conseguimos aplicar la fuerza con la misma frecuencia que la frecuencia del balanceo del columpio, somos más efectivos. En el caso de la cantante y la copa de cristal, bastará con que se emita una nota musical cuya frecuencia coincida con la vibración propia de la copa. Manteniendo la nota con la potencia necesaria, como pasaba con el columpio, la energía que se acumula en ella gracias al fenómeno de la resonancia hará que se produzcan vibraciones tan grandes dentro del cristal que la copa estalle.

Eso sí, si algún cantante de ópera quisiera emular a Melba, Caruso o Callas, no le valdría cualquier copa. Debería ser de cristal muy fino y de gran calidad, cuya composición química sea homogénea para que la copa tenga una única frecuencia propia y se comporte como un sistema limpio, de forma que toda su estructura pueda entrar en resonancia. Afinen esas cuerdas vocales mientras alejan su cristalería más preciada.

 

*Daniel Ramos Vega es investigador del Instituto de Micro y Nanotecnología (IMN) del CSIC y autor del libro Nanomecánica (CSIC-Catarata) de la colección ¿Qué sabemos de?

Vitamina D: cómo obtenerla y qué hacer ante los confinamientos

Por Alexandra Alcorta y Pilar Vaquero (CSIC)*

En estos tiempos de coronavirus, es recomendable salir lo menos posible para evitar contagios, sobre todo en el caso de personas de alto riesgo como las de tercera edad. Sin embargo, no salir a la calle también conlleva un riesgo, ya que no sintetizamos suficiente vitamina D en nuestro cuerpo por falta de exposición solar.

¿Por qué es tan importante la vitamina D?

La forma activa de la vitamina D ejerce diversas funciones en el cuerpo, como el mantenimiento de la salud ósea, el crecimiento celular o la regulación del sistema inmune y cardiovascular.

Siempre se ha dicho que el calcio fortalece los huesos. Sin embargo, esto no sería posible sin los superpoderes de la vitamina D, que es la que se encarga de absorber el calcio y fijarlo a huesos y dientes. Por ello, cuando hablamos de salud ósea, la vitamina D es un nutriente esencial para nuestro organismo.

Además, aunque es menos conocido, la falta de vitamina D se asocia con una mayor susceptibilidad a tener infecciones y enfermedades autoinmunes. A nivel celular, también estimula levemente la eritropoyesis, es decir, la formación de glóbulos rojos.

El salmón, un alimento rico en vitamina D.

Y respecto a la salud cardiovascular, en otras investigaciones la deficiencia de vitamina D se ha asociado con la activación de mecanismos proinflamatorios que promueven el depósito de grasas y triglicéridos en las arterias, lo que conduce a la arteriosclerosis. Además, la vitamina D juega un papel importante en la regulación de la presión arterial y en la función cardíaca, lo que significa que una deficiencia podría afectar negativamente a la salud cardiovascular.

¿Y cómo ocurren estos procesos en nuestro organismo?

Existe un precursor de vitamina D en nuestra piel que es activado mediante la radiación solar ultravioleta y se transforma en vitamina D3, una de las formas en las que se puede obtener esta vitamina. También se puede obtener mediante la dieta en dos formas: D2 y D3. Estas dos formas son conducidas por un transportador específico de vitamina D al hígado y luego al riñón, donde se transforman en sus formas activas, que son las responsables de todas las funciones biológicas como la absorción de calcio y la mineralización ósea.

¿De dónde podemos obtener la vitamina D?

Luz solar

La mayor parte de la vitamina D que circula en nuestro organismo se obtiene a través de la exposición de la piel al sol. Generalmente, la producción máxima de vitamina D se alcanza después de 10-15 minutos de exposición solar, lo que supone una dosis de vitamina D3 más que suficiente, 500 µg, ya que la ingesta diaria recomendada es de unos 10-20 µg.

Dieta y suplementos

La vitamina D también se puede obtener a través de la dieta. La vitamina D2 se encuentra principalmente en alimentos de origen vegetal y la D3 lo hace prioritariamente en fuentes animales, como el aceite de pescado, los huevos y los lácteos. Además, los alimentos enriquecidos, como los cereales de desayuno y lácteos, pueden proporcionar vitamina D2 o D3.

En cuanto a los suplementos (comprimidos, cápsulas, etc.) para personas vegetarianas o veganas, se pueden obtener a partir de lana de oveja (lanolina) o de líquenes.

A partir de líquenes se pueden producir suplementos de vitamina D aptos para personas veganas.

¿Cabe la posibilidad de estar en riesgo de deficiencia de vitamina D?

A veces no es tan fácil obtener la vitamina D mediante la exposición solar, puesto que la producción de vitamina D en la piel es modulada por la estación, la latitud, la hora del día, la pigmentación de la piel, la edad y el uso de protectores solares.

Paradójicamente, en los países del norte de Europa con latitudes superiores a 40oN, los niveles de vitamina D en la población son más altos que en los países de la cuenca mediterránea, como Italia y España. Esto se explica por el mayor consumo de alimentos enriquecidos con vitamina D y suplementos.

Poblaciones que viven en latitudes por encima de 40º N presentan un mayor riesgo de deficiencia de vitamina D.

¿Y qué pasa con las personas veganas-vegetarianas?

Hoy en día, el número de personas que siguen una dieta vegetariana o vegana está en aumento, ya sea por motivos de salud, razones éticas o medioambientales. Sin embargo, estas dietas pueden conllevar un incremento en el riesgo de deficiencia de vitamina D, ya que los alimentos de origen vegetal proporcionan únicamente vitamina D2, que es más difícil de absorber para el organismo que la D3

Según varios estudios, se han encontrado niveles más bajos de vitamina D en personas vegetarianas y veganas, sobre todo después del invierno y en regiones geográficas donde la radiación solar es escasa. Si sigues este tipo de dieta, o si además de hacerlo tienes otros factores de riesgo, es importante que consideres tomar vitamina D, mediante alimentos fortificados o suplementos de D3 aptos para personas vegetarianas.

Confinamientos y otras situaciones de riesgo. ¿Cómo podemos evitar la deficiencia de esta vitamina?

Normalmente, a comienzos de primavera es cuando tenemos las reservas de vitamina D en sus niveles más bajos. Sin embargo, también suben un poco las temperaturas, lo que hace que nos apetezca salir a tomar el sol.

Desafortunadamente, este año empezó el confinamiento justo en esa época, lo que ha dificultado recargar nuestros niveles de vitamina D. Si además se ha reducido la actividad física, la salud ósea se ha podido ver afectada. Esta situación pone a la población en riesgo de deficiencia de esta vitamina tan esencial para el organismo. Por ello, en el caso de sufrir un nuevo confinamiento, os damos una serie de pautas:

  • En primer lugar, intentad exponer vuestra piel al sol durante 15-20 minutos en la ventana o terraza.
  • Si lleváis una dieta vegetariana, es recomendable consumir alimentos fortificados y suplementos de vitamina D3, por su mayor biodisponibilidad.
  • Por último, en la medida de vuestras posibilidades, mantened una actividad física frecuente, para mantener la fortaleza de vuestros huesos.

En conclusión…

Ya hemos visto que las ingestas de vitamina D dependen de muchos factores como la estación del año, la latitud del país, la hora del día, la pigmentación de la piel, la edad, el uso de protectores solares y el estilo de vida. En el CSIC, en colaboración con otros centros de investigación, trabajamos para definir mejor las ingestas recomendadas de vitamina D, teniendo en cuenta todos los condicionantes que se pueden dar en la población.

*Alexandra Alcorta y Pilar Vaquero son investigadoras en el Instituto de Ciencia y Tecnología de Alimentos y Nutrición (ICTAN) del CSIC. Este artículo forma parte del proyecto europeo V-PLACE, financiado por el European Institute of Innovation and Technology (EIT Food). La participación española está liderada por el CSIC, y cuenta con personal investigador perteneciente al Instituto de Ciencia y Tecnología de Alimentos y Nutrición (ICTAN) y al Instituto de Agroquímica y Tecnología de Alimentos (IATA).

 

 

 

Islam e islamismo: distinguir conceptos y deshacer tópicos

Cristina de la Puente (CSIC)*

La mayoría de lectores de este blog perteneceréis a países occidentales y es probable que pocos estéis familiarizados con el islam. En la Unión Europea, los musulmanes son minoría, aunque una minoría significativa: un 3,12%, lo que supone 15 millones de personas. Sin embargo, el reparto es desigual y hay naciones donde se duplica ese porcentaje: un 6% en Francia y Bélgica, y un 4% en Alemania, por ejemplo.

En 2017, en España se calculaba que había 3,6% de musulmanes. Pero su reparto regional también era desigual, porque, dejando al margen Ceuta y Melilla, donde el porcentaje es muy elevado, la mayoría vive en Cataluña, cuya población musulmana alcanza el 6,9% del total, el 11,1% en la provincia de Gerona. Por consiguiente, no es extraño que exista confusión con ciertos términos que son necesarios para comprender el mundo islámico, para interpretar la información que nos llega al respecto, así como para deshacer tópicos. Para empezar, islam no es islamismo y árabe no es sinónimo de musulmán.

Musulmanas leyendo el Corán en una mezquita durante el Ramadán. / Rawpixel Freepik

Musulmanas leyendo el Corán en una mezquita durante el Ramadán. / Rawpixel Freepik

El islam es una religión y por extensión una cultura y, por tanto, existen numerosas maneras de aproximarse a ella. Quien profesa esta religión es un musulmán (islam sí que es sinónimo de religión musulmana). En la actualidad, hay más de 1.500 millones de musulmanes en el mundo, una cifra que sigue creciendo debido a la alta natalidad en los países de mayoría musulmana y porque el islam es una religión proselitista (en este sentido, las musulmanas no pueden casarse con no musulmanes, lo cual en principio garantiza que su descendencia permanezca siempre en el seno del islam, y los varones pueden hacerlo, pero sus hijos serán siempre considerados musulmanes).

Nos referimos a este grupo de países de mayoría musulmana como mundo islámico, que abarca todo el norte de África, una parte importante del África subsahariana, el Oriente Próximo y grandes zonas de Asia central, un territorio extenso de población muy numerosa del subcontinente indio, así como los archipiélagos indonesio y malayo. En Europa, es ligeramente mayoritario en Albania y en Bosnia Herzegovina (52% en ambos territorios).

Por otra parte, el término mundo árabe alude al conjunto de países donde el idioma árabe es mayoritario y oficial, los cuales constituyen la Liga Árabe. Todas estas naciones, aunque de mayoría musulmana, poseen población autóctona perteneciente a otras religiones, como el Líbano, donde el 50% de la población es cristiana. Sin embargo, en España hay una tendencia a asociar musulmán exclusivamente con árabe por diversos motivos: porque el islam nace en Arabia, por la razón de nuestra proximidad geográfica con el mundo árabe y, sobre todo, a causa de nuestra propia historia, pues durante muchos siglos una parte de la península ibérica estuvo arabizada e islamizada. En definitiva, árabe no es sinónimo de musulmán porque hay minorías árabes cristianas y judías y, sobre todo, porque los árabes suman 350 millones aproximadamente y esa cifra solo representa un 22% de la población musulmana total en el mundo.

Otro término que merece especial atención es el de la islamología o estudios islámicos. Esta disciplina permite conocer el mundo islámico de forma profunda y cada vez más rigurosa. Lo lleva haciendo desde finales del siglo XVIII a través de metodologías y herramientas, como la filología, es decir, la lectura científica de los textos en sus lenguas originales, en este caso, árabe, persa, turco, urdu, etc., que facilita su progresivo conocimiento, interpretación y contextualización de los hechos. Esos textos muestran que no existe un único islam, un único credo, ni una única explicación, sino una religión con unas características básicas y comunes, con múltiples puntos de vista, y que ha evolucionado a lo largo de los siglos.

Ni si quiera el Corán, el libro sagrado que contiene la revelación divina, es inmutable a la hora de ser interpretado. Por ejemplo, la esclavitud está presente y parcialmente regulada en el Corán y fue abolida en casi todos los países de mayoría musulmana sin que se haya levantado ninguna voz a favor de su restauración. Otro ejemplo de actualidad es el del hiyab, “velo”. Esta palabra aparece en el Corán, pero no hay una doctrina concreta sobre la vestimenta de los y las musulmanas. La forma de vestir se ha interpretado de mil formas distintas, que oscilan desde considerar que hay que vestir de manera púdica y honesta, pero no es necesario cubrirse la cabeza, hasta creer que solo han de dejarse los ojos al descubierto, o ni siquiera eso.

Al-Masjid an-Nabawi (la Mezquita del Profeta), en Arabia Saludita. / Pixabay

Al-Masjid an-Nabawi (la Mezquita del Profeta), en Arabia Saudita. / Pixabay

Islamismo. Más allá del islam

Solemos meter en el mismo saco los términos islam e islamismo. Pero no son lo mismo. Aunque en español el nombre de las demás religiones acabe en “ismo” -cristianismo, budismo, judaísmo, etc.-, es incorrecto llamar islamismo al islam. De igual forma, quien practica esta religión no es un islamista, sino un musulmán, como ya hemos visto. Tampoco se denomina islamista a quien dedica su vida al estudio del islam, pues ese es un islamólogo. Por otro lado, también es incorrecto llamar a los musulmanes mahometanos porque mientras que los cristianos siguen a Cristo, a quien consideran la encarnación de Dios, y creen en él, los musulmanes no siguen a Mahoma, pues para ellos este es solo un hombre elegido por Dios para transmitir su revelación. Le admiran, pero no le adoran.

Islamismo se refiere a aquellas doctrinas que consideran que el islam no es solo una religión, sino que debe estar presente en la esfera privada y también en todas las instituciones, y debe ser la guía primera que rija su convivencia y sus normas, así como el fundamento de la jurisprudencia de los países musulmanes. Islamistas son, entonces, quienes defienden el islamismo, quienes desean la implantación del islam y la Ley Islámica, “sharía”, en todas las estructuras del Estado, públicas y privadas.

Mapa de países y su utilización de la sharía: en morado, sharía estatal; en verde, los países miembros de la Organización para la Cooperación Islámica que no tienen la sharía como base de su sistema judicial; naranja, sharía a nivel regional; amarillo, sharía como ley familiar. / Wikipedia

Mapa de países y su utilización de la sharía: en morado, sharía estatal; en verde, los países miembros de la Organización para la Cooperación Islámica que no tienen la sharía como base de su sistema judicial; naranja, sharía a nivel regional; amarillo, sharía como ley familiar. / Wikipedia

Cabe señalar, finalmente, que la ideología islamista es numéricamente muy minoritaria en el mundo islámico, aunque la repercusión de sus acciones haya sido y sea hoy enorme. También es necesario reiterar que hay muchos credos dentro del islam y dentro del islamismo. En este último caso, hay una gran variedad de movimientos que sostienen no solo ideas muy distintas, sino a veces muy enfrentadas entre sí.

* Cristina de la Puente es investigadora en el Instituto de Lenguas y Culturas del Mediterráneo y Oriente Próximo del CSIC y autora del libro ‘Islam e islamismo (CSIC-Catarata) de la colección ¿Qué sabemos de?

Computación neuromórfica: el salto de la inteligencia artificial a la inteligencia natural de las máquinas

Por Óscar Herreras (CSIC)*

Todos hemos oído hablar de la inteligencia artificial (IA) y de cómo poco a poco se expande a todos los sectores sociales, desde el control de calidad en cadenas de montaje o la regulación del tráfico en una gran ciudad, hasta el diagnóstico de patologías médicas o la producción de obras artístico-culturales, por muy estrafalarias que nos puedan parecer. No se nos escapa que el término “artificial” implica que las capacidades de una IA están construidas a partir de elementos manufacturados por el ser humano. Pero, ¿y el término “inteligencia”? Sin entrar en el inacabable (y divertido) debate de qué es o qué entendemos por inteligencia, es curiosa la sucesión de manifestaciones desde muchos ámbitos que niegan a las máquinas y dispositivos con IA, incluso futuras, una identidad equivalente a la de una persona. Conste que, como animal limitado que soy, comparto algunos de los temores y reservas detrás de esta actitud negacionista.

No obstante, ¿y si pudiéramos diseñar y construir dispositivos que ‘funcionen’ con una inteligencia inequívocamente natural? ¿Nos atreveríamos a decir entonces que estos dispositivos solo emulan las capacidades del intelecto humano? ¿Es posible replicar en un dispositivo artificial la intricada estructura de los circuitos cerebrales que hacen posible las capacidades cognitivas de los animales? Repasemos las claves que la neurociencia ha encontrado en las últimas décadas para explicar esto.

En primer lugar, al contrario que en un cerebro electrónico estándar, en el que la información se almacena en unidades independientes del procesador (discos, ‘la nube’, etc), los animales guardamos la información relevante obtenida en nuestra experiencia diaria alterando los circuitos cerebrales. A este proceso lo denominamos plasticidad neuronal, como detallábamos en esta otra entrada del blog. Así, las conexiones entre los miles de millones de neuronas que forman los circuitos corticales no son permanentes, pues se modifican cuando ocurren determinados patrones de actividad eléctrica generados por la experiencia sensorial o cognitiva. No tenemos unidades separadas de almacén y procesamiento, los circuitos en sí mismos son ambas cosas a la vez. Circuito diferente, persona diferente.

Esta es la teoría. Pero, ¿cómo la llevamos a la práctica en una máquina? Aquí viene otra clave fundamental. En los animales, la modificación de circuitos consiste en establecer nuevos contactos (nuevas sinapsis) o cambiar la fuerza de los ya existentes. Esto nos permite incorporar nuevos datos a, por ejemplo, asociaciones de objetos o conceptos (ideas) que ya tuviéramos, o establecer otras nuevas. La neurociencia ha confirmado estas propiedades repetidamente y ya se pueden replicar en el laboratorio. Muchos ya pensamos que estas claves son suficientes para explicar todas las capacidades cognitivas del cerebro de los mamíferos: la memoria, la imaginación, la lógica, la planificación, etc. Ahora bien, ¿están presentes estas características en los dispositivos actuales de IA?

A lo largo de la historia de la cibernética, los ingenieros sagazmente han puesto un ojo en los descubrimientos neurocientíficos, hasta el punto de que sus principales hitos han surgido tras replicar algún nuevo hallazgo sobre la estructura o el funcionamiento del sistema nervioso: no es mala idea tratar de emular la “máquina” pensante más compleja y potente. Lo cierto es que, al menos en el plano conceptual, existe un fuerte paralelismo entre la manera en la que un cerebro y un dispositivo IA aprenden: ambos cambian algunos de sus elementos para almacenar información o resolver un problema. La diferencia, como esbozaba antes, estriba en que en una IA los circuitos electrónicos impresos que unen sus partes no varían, la información no está en sus conexiones, se guardan en una lista (software) de una unidad separada. Vemos que la solución biológica es mucho más eficiente, la propia estructura cambiante de los circuitos nerviosos contiene tanto nuestra historia vital como nuestras capacidades.

Para emular esta extraordinaria solución biológica, en el programa Europeo de Investigación Human Brain Project (HBP), en el que participan decenas de grupos experimentales y teóricos de diferentes países, existen varios subproyectos que desarrollan lo que se denomina computación neuromórfica. En pocas palabras, están desarrollando ordenadores con una arquitectura de circuitos mutable. Los datos nuevos o las capacidades nuevas no se guardan en forma de unos y ceros en una unidad separada, sino en el propio mapa de conexiones. Estos ordenadores cambian la conectividad de sus circuitos a medida que aprenden a ejecutar eficientemente una tarea, y lo curioso es que el número de cambios puede ser tal que averiguar cuál es su mapa de conexiones después del aprendizaje plantea ya los mismos problemas a un investigador que un cerebro real. Esos cambios en el aprendizaje son tantos y tan complejos que mantener un listado de las nuevas conexiones sería ineficiente a medida que aumente el tamaño y las tareas de estos computadores neuromórficos.

Materiales con memoria

La capacidad de aprender que nos proporciona la plasticidad de las sinapsis no ha sido fácil de emular en los contactos eléctricos de un circuito impreso. Hemos tenido que esperar a la aparición en la década pasada de materiales con propiedades eléctricas extraordinarias para dar solución al último gran problema. Estos materiales, como el dióxido de titanio, pueden variar su resistencia eléctrica dependiendo de la corriente que ha pasado por ellos anteriormente. Se les denomina memristores (resistencias con memoria), y regulan la cantidad de corriente que dejan pasar dependiendo de su historia previa, esto es, de la corriente que ya circuló por ellos en el pasado, replicando fielmente el papel y funcionamiento de las sinapsis cambiantes entre neuronas. Ya no es necesario mantener los cambios (la experiencia) en una unidad separada. Recuerden, no se pierde la unidad de almacén de información, el circuito es la información.

La prueba de concepto ya ha sido publicada recientemente en la revista Scientific Reports En este artículo, el equipo investigador ha sido capaz de realizar conexiones entre una neurona electrónica y una neurona real utilizando dos de estas sinapsis de dióxido de titanio capaces de aprender. Ya no es necesario guardar los cambios en ninguna parte, todo es estructura cambiante, como en un cerebro real. En ordenadores neuromórficos con sinapsis variables todo es artificial menos, quizá, su funcionamiento. ¿Podemos decir que este tipo de ordenadores ha dado el salto de una IA a una inteligencia natural (IN)? Las diferencias entre la tecnología y la biología ciertamente se estrechan. A estas alturas, yo no sabría decir si el cerebro ‘piensa’ como una máquina o la máquina lo hace como un cerebro

* Óscar Herreras es investigador del Instituto Cajal del CSIC.

 

¿Eres capaz de ver violencia en esta escena medieval?

Por Antonio Ledesma (CSIC) *

A diferencia de lo que muchas personas piensan, la Edad Media no fue un período marcado solo por la violencia y la guerra, como da a entender la serie Juego de tronos. Sin embargo, en este post vamos a fijar la atención en los conflictos sociales de la época. Lo haremos de una forma muy particular: relacionándolos con los procesos constructivos. La historia del arte es una disciplina muy útil para abordar las manifestaciones culturales de un período histórico, pues, como afirma Paul Zanker, “el mundo de las imágenes (…) refleja el estado interno de una sociedad y permite obtener una idea de la escala de valores y de las proyecciones de los contemporáneos, aspectos que frecuentemente no se manifiestan en las fuentes literarias”.

Entre los años 1050-1300, en Europa se advierte una gran eclosión constructiva. “Parecía como si el mundo, queriendo sacudirse de sus sucios harapos, fuera a vestirse con el blanco manto de las iglesias”, escribió entonces el monje cluniacense Raúl Glaber, que vivió a comienzos del siglo XI. En esta época se desarrolló lo que se conoce como arte románico, estilo que predomina en el continente durante los siglos XI, XII e inicios del XIII, y cuyo peso en la construcción de la identidad cultural europea justifica, por ejemplo, su presencia en los billetes de diez euros.

Ahora te animamos a observar una escena correspondiente a aquel momento:

Vista completa de la escena representada en el capitel del monasterio de San Pedro de Valdecal (Palencia). / © Javier M. - Proyecto Petrifying Wealth

Vista completa de la escena representada en el capitel del monasterio de San Pedro de Valdecal (Palencia). / © Javier M. – Proyecto Petrifying Wealth

Esta representación se encuentra en un capitel identificado entre los restos del monasterio de San Pedro de Valdecal, conjunto que se localizaba en tierras palentinas y del que hoy solo restan algunos vestigios y unos cuantos testimonios documentales. En palabras de Miguel Ángel García Guinea, el monasterio tuvo que ser “uno de los edificios desaparecidos más importantes del románico palentino”. El capitel, que se expone en la actualidad en el Museo Arqueológico Nacional (MAN), resulta excepcional por la escena que representa y por eso ha recibido la atención de especialistas renombrados, como García Guinea o Serafín Moralejo. Y tú, ¿qué ves? ¿Crees que hay violencia en esta, aparentemente, “inocente” escena?

En el proyecto Petrifying Wealth pensamos que sí. Hasta la fecha la imagen era considerada por la comunidad investigadora como una escena vinculada con el proceso constructivo, que representaba a porteadores de agua o de argamasa, materiales necesarios para la obra. Desde este punto de vista, el capitel de San Pedro de Valdecal reinterpretaría un capitel considerado como su referente: el que se encuentra en el interior de la iglesia del antiguo y afamado cenobio de San Martín de Frómista, también en Palencia, a casi 50 kilómetros de distancia en línea recta de Valdecal. Este referente repercutiría también en un capitel fracturado del interior de Santa Julián en Santillana del Mar, ya en tierras cántabras, donde la acción representada se ha vinculado más con la vendimia.

Sin embargo, en Valdecal los objetos y los gestos de los personajes representados plantean una lectura complementaria que dota a la pieza de especial interés y tiene enormes implicaciones, ya que añade un rasgo especial: la violencia. Es probable que este capitel constituya uno de los testimonios artísticos más singulares que reúne violencia y construcción.

Capitel del monasterio de San Pedro de Valdecal (Palencia) y detalle del mismo. © Museo Arqueológico Nacional.

Capitel del monasterio de San Pedro de Valdecal (Palencia) y detalle del mismo. / © Museo Arqueológico Nacional

Sumamente sintética y con varios destellos de gran virtuosismo técnico, la escena se compone por cuatro figuras en total, dos centrales y una en cada costado, todas masculinas y en edad juvenil. Los dos personajes del frente llevan una gran herrada a hombros e interactúan con sus contrarios en un tipo de acción que es familiar en la cultura visual popular gracias a los característicos belenes navideños, que suelen presentar tareas y disposiciones similares. No obstante, aquí el portador de la izquierda es golpeado en su espalda por un instrumento de disciplina que es agarrado con firmeza con las dos manos por el sujeto del costado; mientras que el portador de la derecha es tirado del cinturón por la figura del extremo derecho, que busca su control. El sojuzgado rehúye a su vez su autoridad colocando su mano izquierda sobre la muñeca del agresor, lo que genera una clara tensión entre ambos, a diferencia de lo que sucede con los otros dos sujetos. De este modo, se puede hablar de dominio y de una coacción nada sutil hacia los portadores (todo delata que siervos), por parte de los otros dos sujetos. Estos últimos, además, van calzados –al contrario que los porteadores, que llevan los pies desnudos– y presentan una mayor corpulencia, factores ambos que acentúan las diferencias sociales y su relación jerárquica.

Un caso singular en el que se identifica ‘construcción y violencia’

Durante los siglos que abarca este período se han documentado en contextos constructivos conflictos de diversa índole, en especial de carácter económico, si bien no siempre violentos. Sin embargo, en representaciones artísticas no se conocen más testimonios a nivel hispano que combinen constructio et violentia, aunque no hay que perder del horizonte el abultado número de testimonios existentes y la imposibilidad de reconocer todos. Para hacernos a la idea, solo la provincia de Palencia concentra el mayor número de monumentos románicos en toda Europa. Esta situación acentúa el interés de este ejemplar pétreo sin que se pueda hacer referencia a un unicum.

Pero, ¿por qué se eligió representar una escena de estas características y con qué objetivos? Es un interrogante difícil de responder, ya que se han perdido el contexto sociocultural del que emergió y la casi totalidad de las piezas del rompecabezas. Todo parece indicar que se trata de una escena de conflicto enmarcada en un ciclo laboral, tal vez en el contexto de una construcción, y que podría corresponder a una amonestación a la violencia ejercida por los que ostentaban el poder, pero su descontextualización impide poder concretar más. “Aún queda gran cantidad de no libres, de hombres y mujeres cuyo cuerpo pertenece a alguien que lo vende, que lo da, y a quien deben obedecer en todo”, afirma el historiador Georges Duby sobre la Europa del año mil. Según un testimonio documental, el monasterio ya estaría en construcción en el primer cuarto del siglo XII y para la obra esculpida se han barajado fechas entre fines del siglo XI y principios del XII. De ser así, construcción y representación podrían ser simultáneos cronológicamente, aunque no es posible aventurar mucho más.

En cualquier caso, con la escena de este capitel y la nueva lectura que podemos hacer de ella, nos encontramos ante un testimonio audaz y no muy corriente en el que coexisten violencia y construcción durante la Edad Media.

 

* Antonio Ledesma es investigador postdoctoral en el Instituto de Historia del Centro de Ciencias Humanas y Sociales del CSIC. Este caso de estudio de un conflicto social relacionado con el ámbito de la construcción se ha llevado a cabo gracias al proyecto ERC ‘Petrifying Wealth, dirigido por Ana Rodríguez. Una de las ideas motrices de este proyecto busca conocer las correspondencias y los límites entre conflictos sociales y la construcción edilicia en los diferentes territorios europeos durante el período 1050-1300.