Archivo de la categoría ‘Tecnologías’

Extractos vegetales o aditivos E: ¿cuál es la mejor opción para conservar los productos cárnicos?

Por Mónica Flores (CSIC) * y Mar Gulis (CSIC)

En los últimos 40 años, el consumo de alimentos de origen animal ha aumentado considerablemente, sobre todo en los países asiáticos. Hoy, la demanda de este tipo de alimentos se encuentra al mismo nivel en América y Europa que en China. En paralelo a este proceso, la demanda de productos cárnicos se ha visto afectada por la preocupación por el bienestar animal y por el consumo de alimentos orgánicos. En este sentido, una de las tendencias de mercado más importante está siendo la eliminación de aditivos y, por tanto, de los números E de las etiquetas.

Entre los aditivos más afectados por esta dinámica se encuentran los denominados “agentes de curado”, es decir, el nitrito potásico y sódico (E 249 y E 250) y el nitrato sódico y potásico (E 251 y E 252). Estos agentes se emplean en la elaboración de muchos productos cárnicos -como el jamón serrano y cocido, el chorizo, el salchichón, etc.- para mantener su seguridad y sus características organolépticas (color, aroma y sabor).

De hecho, en el ámbito internacional el término “curado” hace referencia al uso de sales de nitrito y nitrato junto con cloruro de sodio y otros ingredientes como conservantes de la carne. El nitrito es el principio activo que produce el efecto conservante mientras el nitrato actúa como fuente de nitrito en los procesos largos de secado y maduración de los productos.

Pros y contras de los aditivos E

El empleo de este tipo de aditivos en los productos cárnicos ha sido respaldado por la Agencia Europea de Seguridad Alimentaria (EFSA), que en el año 2003 concluyó que son fundamentales para proteger los alimentos frente al bacilo Clostridum botulinum, causante del botulismo. En la misma línea se ha pronunciado la Agencia Francesa de Seguridad y Salud Alimentaria, Ambiental y Ocupacional (ANSES) en su “Evaluación de riesgos relacionados con el consumo de nitratos y nitritos”. El informe, publicado en 2022, indica que los nitritos y nitratos contribuyen eficazmente a limitar el desarrollo de agentes patógenos como Listeria, Salmonella o Clostridium botulinum.

Estos aditivos, por tanto, son excelentes antimicrobianos y antioxidantes que permiten que tengamos unos productos cárnicos seguros y con propiedades sensoriales características. A pesar de ello, nitritos y nitratos se encuentran en el punto de mira debido a que pueden dar lugar a la formación de las denominadas nitrosaminas, agentes cancerígenos formados por la reacción del nitrito residual en los productos cárnicos con aminas secundarias. Por eso, la ESFA recomienda restringir su uso en los productos cárnicos al mínimo posible.

En cualquier caso, conviene no olvidar que la principal fuente de exposición humana a los nitratos es el consumo de verduras y hortalizas, no el de carne: el 80% de la ingesta total de nitratos procede de dichos alimentos. Estos nitratos son resultado del empleo de fertilizantes en los cultivos, aunque el contenido en nitratos de los vegetales varía mucho según la parte anatómica del vegetal que se consuma y de las prácticas agrícolas.

Por su parte, la fuente más importante de nitrito en la dieta es el consumo de alimentos y agua que contienen nitrato, el cual se convierte en nitrito en la saliva por acción de las bacterias orales. Un informe de la EFSA de 2017 señala que la contribución de los nitritos por su uso como aditivos alimentarios (principalmente en productos cárnicos) representa aproximadamente un 17% de la exposición total a los nitritos.

El auge de los productos ‘etiqueta limpia’

Aun así, en los últimos años se ha acentuado la búsqueda de alternativas a los nitrificantes para crear productos ‘etiqueta limpia’ (clean label). A principios del siglo XXI, en Estados Unidos se propuso el empleo de extractos vegetales con altos contenidos de nitratos para la fabricación de productos cárnicos. Los extractos vegetales, fermentados o no, que se han comercializado en el país anglosajón con estos fines proceden del apio y, en menor medida, de la remolacha, la lechuga, la espinaca, la acelga o la zanahoria, todos ellos ricos en nitrato, así como de la acerola y las cerezas, que aportan ascorbato.

Sin embargo, esta estrategia de sustitución plantea limitaciones, como las debidas al posible aporte de aromas vegetales y pigmentos procedentes del extracto. Además, en estos extractos la concentración de nitrato y nitrito es variable y requiere la adición de bacterias que permitan la formación del nitrito. Al ser el nitrito el verdadero agente antimicrobiano en los productos, el desconocer la dosis real de nitrito empleada conlleva riesgos de seguridad alimentaria y requiere el empleo de otras sustancias antimicrobianas.

Además, esta estrategia no impide que en el caso de que exista nitrito residual se formen nitrosaminas, por lo que el riesgo de formación de las sustancias cancerígenas sigue existiendo. Incluso otros contaminantes presentes en los extractos vegetales, como micotoxinas, metales pesados y contaminantes orgánicos, pueden ser transferidos al producto cárnico.

Por último, una de las principales limitaciones en el uso de extractos vegetales es su posible potencial alergénico. De hecho, el apio está incluido en el listado de alérgenos identificables en la Unión Europea.

Autorizados en EEUU y Canadá, pero no en Europa

En Estados Unidos y Canadá esta práctica está autorizada, pero ha creado cierta polémica por el empleo de mensajes como “no curado” en el etiquetado de los productos cárnicos procesados con extractos vegetales, ya que pueden confundir a los consumidores, que no entienden las prácticas realizadas. Por ello, se exige que el etiquetado sea preciso y no engañoso.

En Europa, la EFSA realiza la evaluación de la seguridad de los aditivos. Sus criterios de seguridad establecen que los aditivos no deben contener residuos que puedan presentar algún riesgo de tipo toxicológico. En este sentido, los extractos vegetales no presentan los mismos criterios de pureza que los aditivos agentes de curado e impiden una correcta evaluación de su seguridad. Este aspecto es muy importante, pero desconocido para los consumidores, que perciben más naturalidad en un extracto vegetal que en un aditivo, lo que conlleva falsas apreciaciones.

* Mónica Flores es investigadora del CSIC en el Instituto de Agroquímica y Tecnología de Alimentos.

Fibra óptica, implantes médicos o paneles solares: ‘La Edad del Vidrio’ ya está aquí

Por Mar Gulis (CSIC)

Te encuentras atravesando un espeso bosque lleno de secuoyas cuando de repente un sonido familiar se oye a lo lejos, repetitivo, cada vez más elevado, hasta que, ¡ZAS!, te percatas de que se trata de la alarma del móvil. Es la hora de ponerse en pie… Te pones las gafas y miras la pantalla: las 7:00 h, comienza un nuevo día. Te lavas la cara frente al espejo, te cepillas los dientes y te asomas por la ventana. Ves que hace un sol radiante, promete ser un gran día. Mientras abres el tarro de una deliciosa mermelada y pones la cafetera en la vitrocerámica, enciendes el portátil para ver si hay alguna novedad. La jornada comienza bien a pesar de que un mensaje te recuerda que hoy tienes cita para ponerte un implante dental y que además te toca la siguiente dosis de la vacuna.

Esta podría ser una mañana más en la vida de una persona cualquiera, pero en esas primeras horas ya aparecen varios elementos en los que el vidrio juega un papel determinante. Aunque no hayas reparado en ello, la lente de las gafas, la pantalla del móvil, el espejo, el acristalamiento de la ventana, la placa vitrocerámica, la fibra óptica que te permite navegar por Internet y los envases que aseguran la correcta conservación de alimentos y vacunas están hechos de vidrio… Este material está presente en todo tipo objetos, algunos de ellos tan sorprendentes como los implantes de piezas dentales o los dentífricos que emplean nanopartículas de vidrio.

Descubierto por casualidad en Siria hace 5.000 años, cuando unos mercaderes utilizaron natrón para apoyar sus ollas sobre las fogatas en las que iban a cocinar, en la actualidad el vidrio nos rodea, forma parte de nuestras vidas. No es de extrañar, por tanto, que haya sido el primer material en protagonizar una conmemoración internacional, la correspondiente al año 2022, declarado por Naciones Unidas Año internacional del Vidrio.

El vidrio es uno de los materiales más transformadores de la historia de la humanidad. A lo largo de la historia ha desempeñado importantes funciones en la arquitectura, los artículos para el hogar, los envases… Y hoy es un elemento esencial en sectores clave como el de la energía, la biomedicina, la información y las comunicaciones o la óptica y la optoelectrónica.

Una exposición para descubrir las aplicaciones del vidrio

¿Sabías que existen vidrios diseñados para disolverse dentro del cuerpo humano? ¿O que es posible fabricarlos para que emitan luz en la oscuridad? Entre otras muchas aplicaciones, el vidrio resulta indispensable en los paneles solares y las palas de las turbinas eólicas que nos proporcionan energía limpia, la conservación de vacunas como las diseñadas para hacer frente al virus de la COVID-19, la curación de tejidos dañados o la fabricación de implantes.

Precisamente de sus aplicaciones nos habla la exposición itinerante y virtual La Edad del Vidrio, elaborada por el Consejo Superior de Investigaciones Científicas (CSIC) con apoyo de la Fundación Española para la Ciencia y la Tecnología (FECYT). A través de ellas, la muestra invita al público a averiguar todo lo que este material puede hacer para ayudarnos a alcanzar los Objetivos de Desarrollo Sostenible de la ONU: 17 retos globales encaminados a erradicar la pobreza, proteger el planeta y asegurar la prosperidad de sus habitantes.

Exposición La Edad del Vidrio en la Biblioteca Municipal Eugenio Trías (Madrid) / Laura Llera

Por el momento, la muestra podrá visitarse del 4 al 27 de octubre en el parque de El Retiro de Madrid y del 2 de noviembre al 11 de diciembre en la Real Fábrica de Cristales de La Granja (Segovia), aunque después seguirá recorriendo otros lugares. Además, sus contenidos se encuentran también completamente disponibles en la web www.edaddelvidrio.es. En ella, podrás navegar por la exposición en castellano o inglés, descargártela y escuchar sus audioguías, que también puedes encontrar en las principales plataformas de audio (Ivoox, Spotify, Google podcast, Apple podcast o Amazon music), buscando ‘La edad del vidrio’.

Experimentos y propuestas didácticas

Además, si quieres profundizar en la exposición de manera lúdica y didáctica, también encontrarás materiales educativos para ESO y Bachillerato que estimulan la creatividad e invitan al debate. Sus contenidos incluyen un endemoniado juego de Verdadero o falso relacionado con las aplicaciones del vidrio o una Sopa de letras en las que buscar términos relacionados con este material. Crear una tabla periódica vidriera, convertirse en un superhéroe o una superheroína del clima o diseñar una campaña de sensibilización para fomentar el reciclaje del vidrio son otras de las actividades propuestas.

Y para quienes decidan adentrarse en el mundo del vidrio de forma más práctica (y dulce), también hay experimentos. Con ellos se pueden crear cristales de azúcar y  experimentar con algunas de las propiedades del vidrio con poco más que unos caramelos, un martillo y una bandeja de hielos. La actividad te ayudará a comprender el proceso de fabricación del vidrio y a entender por qué, en las películas, el vidrio que se quiebra, estalla o explota, rara vez es vidrio real… De hecho, se trata de vidrio falso hecho a partir de azúcar para que nadie resulte herido.

En cualquier caso, aunque haya vidrios fake, el verdadero vidrio está muy presente en nuestras vidas y juega un papel fundamental en el mundo contemporáneo. Descúbrelo navegando por la exposición y descargando sus unidades didácticas y sus fichas de experimentos de manera gratuita. ¡Que su transparencia no lo haga pasar desapercibido!

De los móviles a las renovables: las baterías ya no son lo que eran

Por Pedro Gómez-Romero (ICN2-CSIC) *

De las pilas de simpáticos conejitos a las baterías de iones de litio encerradas en nuestros móviles, pasando por las pesadas baterías de plomo de los coches, las baterías del siglo XX nunca fueron actores principales de nuestras tecnologías. Parecían los parientes pobres de los móviles o de los coches, y, además, solo nos acordábamos de ellas cuando se gastaban, siempre en el peor momento, claro. Pero eso está a punto de cambiar.

El crecimiento de las renovables solo es posible de la mano de un crecimiento simultáneo del almacenamiento estacionario de energía.

Tomemos como ejemplo las baterías de iones de litio, bendecidas por Sony en 1991 para alimentar nuestros móviles. Ante todo, se les exigía (y se les sigue exigiendo) ligereza y compacidad, para ocupar poco espacio en la obra maestra de ingeniería y arquitectura que es nuestro móvil. El coste era secundario ante los desorbitados precios que el consumidor estaba dispuesto a pagar por la última versión del objeto de deseo. Y de su vida útil ya ni hablemos, puesto que las estadísticas confirman que cambiamos de móvil a mayor velocidad que lo que tarda en jubilarse su batería.

Pero las cosas están cambiando. De entrada, la consolidación de la tecnología de litio ha hecho que sus nichos de aplicación se extiendan a campos en tremenda expansión, como el vehículo eléctrico. Y entonces, de repente, la cosa cambia: tanto el precio de las baterías como su vida útil adquieren una importancia vital.

Además, la misma tecnología de litio se aplica ya en otros campos estratégicos como el almacenamiento estacionario de electricidad. Os cuento un caso real que conozco bien: el de mi propia casa. Vivo en una casa pasiva, que produce toda la energía que necesita y más, y que está aislada de la red eléctrica. De noche mi casa vive alimentada por un par de módulos de baterías de litio, que son esencialmente las mismas que se usan en móviles y en coches eléctricos. Todas descansan sobre el uso de iones de litio. Pues bien, el fabricante de mi sistema ya ha informado a todos sus clientes que sube los precios debido al encarecimiento de las materias primas. No es un caso aislado, las baterías de iones de litio están subiendo de precio este año 2022 después de décadas de continuos abaratamientos debidos a la economía de escala.

La excusa es la guerra de Putin, pero el rápido aumento de la demanda y los límites de producción de litio permiten predecir que los precios del litio seguirán altos después de la guerra. La crisis de materias primas (especialmente las más escasas) está aquí para quedarse.

batería

Las baterías de litio también se utilizan en ordenadores.

Más allá de litio

Así, ha llegado el momento para el que la comunidad científica llevaba preparándose desde hace tiempo. Es la hora de sacar nuestras nuevas baterías del laboratorio y lanzarlas al mercado. Las conocemos como baterías “post-lithium” y las hay de sodio (Na), potasio (K), magnesio (Mg), calcio (Ca), cinc (Zn)… e incluso de aluminio (Al) o de hierro (Fe), que habrían sido impensables hasta hace poco tiempo. Todos estos elementos son mucho más abundantes que el litio (Li), aunque también más pesados, y algunos de ellos son capaces de producir dos y hasta tres electrones por átomo, mientras que cada átomo de litio solo es capaz de producir uno.

Pero además de estas baterías, de iones diferentes al litio, las baterías de un futuro más cercano de lo que creemos se basarán en químicas y formatos completamente diferentes. Por ejemplo, las baterías de tipo Metal-Aire (O2) o Metal-Azufre que han sido obstinadamente impracticables durante décadas y que ahora, con nuevos conocimientos, nanomateriales y herramientas científicas, están más cerca del éxito comercial. Estas baterías aportarían de hecho una gran mejora en la densidad de energía de las baterías: es decir, en la cantidad de energía que pueden almacenar en una unidad de volumen.

Aunque no todo depende de la densidad de energía de una batería. También es importante el tiempo de carga. Los supercondensadores, permiten cargas ultrarrápidas, con altas densidades de potencia y son capaces de brindar del orden de cientos de miles de ciclos de carga y descarga.

Además, los nuevos dispositivos híbridos que integran componentes o materiales de baterías con otros típicos de supercondensadores aspiran a brindar prestaciones similares a las de los supercondensadores, pero con mayor densidad de energía. Esta es la especialidad de mi grupo de investigación, NEO-Energy, en el Instituto Catalán de Nanociencia y Nanotecnología (ICN2, CSIC-BIST).

Aparte de baterías de todo tipo, supercondensadores y dispositivos híbridos, también tenemos en nuestro catálogo nuevos formatos de tecnologías de almacenamiento de energía. Por ejemplo, las baterías de Flujo Redox en las que los elementos activos fluyen en lugar de estar encerrados en una celda electroquímica, como ocurre en las baterías convencionales. Este tipo de baterías es muy prometedor para el almacenamiento estacionario de electricidad renovable a gran escala, aunque es necesario seguir mejorando su densidad de energía.

Un futuro renovable

El almacenamiento de electricidad renovable no es la única nueva aplicación de las baterías, pero sí una de las más importantes entre las que hacen que las baterías ya no sean lo que fueron. La contribución de las energías renovables a la producción de electricidad en España roza el 50%. Hasta ahora, la variabilidad de la producción solar y eólica se compensaba con las energías de plantas nucleares de fisión o plantas de ciclo combinado (es decir, quemando gas natural). Sin embargo, en el futuro esta variabilidad se tendrá que compensar con una combinación de mayores interconexiones en la red eléctrica, almacenamiento masivo y gestión de la demanda. Cuando se alcance el 60% de electricidad renovable, habremos llegado a un punto crítico para el que tendremos que haber puesto en marcha cambios estructurales.

Panel solar y batería

Instalación solar con batería incorporada.

La penetración de las renovables en nuestro mix energético deberá seguir creciendo, sin duda. Pero eso sólo será posible de la mano de un crecimiento simultaneo del almacenamiento estacionario de energía, que permita compensar la variabilidad solar y eólica. Además, dicho almacenamiento tendrá que desarrollarse sobre diversas tecnologías, que se adapten a los cortos, medios y largos periodos de almacenamiento en respuesta a la variabilidad a corto, medio y largo plazo de nuestras tecnologías de generación.

No es una transición fácil, pero sí absolutamente necesaria. Debemos acelerar para sacar del laboratorio todas esas tecnologías de almacenamiento y ponerlas a trabajar para lograr un nuevo modelo de energía verdaderamente sostenible. Porque es ahora cuando estamos creando la historia de nuestro futuro.

* Pedro Gómez-Romero es profesor de investigación, divulgador científico del CSIC y responsable del canal de youtube de divulgación científica Tecnosfera.

Tres pasos para protegerse frente a la desinformación

Por Sara Degli-Esposti y David Arroyo (CSIC)*

Desinformación, manipulación informativa, propaganda, noticias falsas o verificación de noticias son algunos de los términos que resultaban de interés en el ámbito de la comunicación de la ciencia antes de enero de 2020. Con la irrupción de la pandemia de COVID-19, ese interés se extiende a todos los ámbitos de los medios de comunicación, en especial al de las redes sociales.

Ilustración: Kurzgesagt – In a Nutshell, para el proyecto TRESCA

¿Cómo afrontar la desinformación? Jaron Lanier, pionero de la realidad virtual, lo tiene claro: habría que abandonar por completo las redes sociales. Así lo expuso en Ten arguments for deleting your social media accounts right now (diez razones para borrar tus redes sociales ahora mismo), ya que estas solo sirven para hacer que las personas estén más enfadadas, tengan más miedo, sean menos empáticas, estén más aisladas y reaccionen de modo más irracional. Pero, ¿qué pasa si no queremos perderlas y si queremos usarlas, por ejemplo, para que la comunicación científica llegue a más personas? Para reducir los riesgos de exposición a la manipulación informativa, desde el proyecto TRESCA** proponemos una metodología acompañada de un conjunto de herramientas que denominamos ‘Ms.W’ (Misinformation Widget) que nos ayuda a detectar información errónea o, incluso, campañas de desinformación.

Aquí resumimos brevemente esta metodología centrándonos en tres temáticas: la fiabilidad de las fuentes, la veracidad del mensaje y los sesgos del usuario, haciendo hincapié en las emociones que genera cada noticia. Se puede encontrar más información sobre esta metodología en el módulo 5 del curso online gratuito Communicating trustworthy information in the digital world (cómo comunicar información fiable en el mundo digital) y en la Guía LADA Cómo protegerse de la desinformación dentro de la serie ‘Cómo hacer…’ de La aventura de aprender, que se publicará a final de 2022.

Primer paso: verifica la fiabilidad de la fuente de información

  • No confíes en una noticia simplemente porque quien la comparte pertenezca a tu círculo de confianza. Si no confías en la fuente, realiza algunas búsquedas para ver otra información que haya publicado anteriormente.
  • Comprueba que la noticia realmente fue escrita por una persona o una organización que realmente existen, y no por un bot o una cuenta falsa. Fíjate que no existan organizaciones o personas con nombres similares o que compartan la imagen de perfil, y que la cuenta haya sido creado recientemente. Además, puedes hacer uso de herramientas para la detección de bots.
  • Verifica que lo que te ha llegado no ha sido manipulado o generado utilizando imágenes sacadas de contexto. Confirma que la fuente no se corresponde con un sitio de noticias desactualizado o creado ad hoc para dar difusión a una noticia. Si la fuente es un vídeo o tiene imágenes, se pueden usar herramientas de búsqueda inversa.
  • Ten en cuenta la objetividad y la intención del autor y/o de la fuente de la información y su ideología o agenda política. Puedes utilizar el detector de sesgo Media bias para hacerte una idea del sesgo ideológico de la fuente. Además, puedes hacer uso de nuestra metodología para realizar identificación de autores mediante el análisis de estilo de escritura.

Imagen: Marco Verch / Flickr

Segundo paso: determina la veracidad del mensaje

  • Revisa el contenido de la noticia para determinar si toda la información apoya la historia comprobando los enlaces. Comprueba que las citas sean reales y se ajusten al significado original.
  • Verifica si hay otras fuentes que se hayan hecho eco de los que se declara, denuncia o notifica en el mensaje. Comprueba si el contenido se ha hecho con intención de entretener en vez de informar, y si su mensaje es irónico o sarcástico.
  • En el fenómeno conocido como clickbait o ‘señuelo para que hagas click’, se suelen usar titulares que enganchan y no corresponden con su contenido. Antes de compartir, comprueba que esto no sea así. Puedes usar nuestra herramienta de detección de clickbait.
  • Comprueba que el contenido no ha sido identificado anteriormente como bulo, y que no haya habido noticias similares ya denunciadas como caso de desinformación por servicios acreditados de verificación de información.
  • Haz copias de todo el contenido por si en el proceso de comprobación ‘desaparece’ o los archivos se estropean. En el caso de que ‘desaparezca’ contenido, puedes hacer uso de The Internet Archive.

Ilustración: Irene Cuesta (CSIC)

Tercer paso: observa o controla las emociones y analiza la noticia desde distintos puntos de vista

  • Si sientes que tus emociones ‘se disparan’, ponte en alerta. Tus creencias o prejuicios pueden afectar tu capacidad de juzgar justamente la veracidad de la noticia. Muchas campañas de desinformación tratan de provocar tu respuesta emocional para aumentar su difusión.
  • Si el contenido busca provocar una reacción emocional en uno u otro sentido, es probable que sea desinformación. La desinformación intenta aumentar la polarización y la desconfianza entre personas o grupos animándolos al enfrentamiento.
  • Sospecha de cualquier contenido que intente atentar contra la integridad de sistemas electorales, o que promueva discursos de odio o mensajes que apoyen la misoginia, el racismo, el antisemitismo, la islamofobia, la homofobia o la LGTBIfobia, o que promuevan conspiraciones sobre redes globales de poder.
  • Tanto si el contenido está patrocinado como si no, ten en cuenta que pueden utilizar tu actividad previa en una plataforma para identificarte como posible objetivo de una campaña de desinformación, y usar esa información para identificar tus puntos débiles. Por ello, la protección de la privacidad es un elemento crítico para combatir de forma efectiva la desinformación.

 

* Sara Degli-Esposti es investigadora del CSIC en el Instituto de Filosofía (IFS-CSIC) y ha sido la directora científica del proyecto TRESCA; su trabajo de investigación se centra en la ética de la inteligencia artificial. David Arroyo es científico del CSIC en el Instituto de Tecnologías Físicas y de la Información Leonardo Torres Quevedo (ITEFI-CSIC) y experto en ingeniería criptográfica, privacidad y seguridad de la información; ha sido investigador principal (IP) de TRESCA y actualmente es IP del proyecto XAI-DisInfodemics – eXplainable AI for disinformation and conspiracy detection during infodemics (IA eXplicable para la detección de desinformación y conspiración durante la infodemia).

** El proyecto TRESCA, cuyas siglas responden a Trustworthy, Reliable And Engaging Scientific Communication Approaches (enfoques de comunicación científica dignos de confianza, fiables y atractivos), ha recibido financiación del Programa de Investigación e Innovación Horizonte 2020 de la Unión Europea. Los resultados del proyecto, terminado en abril de este año, están disponibles en la web oficial: https://trescaproject.eu.

Claves para entender la escasez de los chips en Europa

Por Luis Fonseca (CSIC)*

Vivimos rodeados de chips. No solo están en productos como los móviles o los ordenadores, sino también en la automoción, la producción industrial de ropa o alimentos y en sectores críticos como el de la instrumentación médica, la seguridad o la defensa. Por eso cuando escasean estos semiconductores, como ocurre en la actualidad, saltan las alarmas. Pero, ¿por qué faltan chips? Aunque en los últimos meses se haya hablado mucho de ello, desde el Instituto de Microelectrónica del CSIC en Barcelona trataremos de aportar nuestro punto de vista.

Antes, apuntalemos algunos conceptos previos

El primero es el de la electrónica, que es la rama de la física que estudia los movimientos de los electrones libres y la acción de las fuerzas electromagnéticas y cómo utilizarlos para controlar la propia electricidad y gestionar todo tipo de procesos de información. No es poca cosa, porque, como predijo Michael Faraday en una difundida aunque oficiosa anécdota en la que señalaba que se acabarían pagando impuestos por la electricidad, hemos hecho de la electricidad y de la información uno de los vectores principales de nuestra sociedad en general y de nuestro sistema productivo y económico en particular. La primera revolución industrial se fraguó en torno al vapor, pero las protagonistas de las posteriores revoluciones han sido la electricidad, la electrónica y la información.

Ilustración del experimento de M. Faraday en 1831 donde muestra la inducción electromagnética entre dos bobinas. /Grabado de J. Lambert (1892)

El transistor, por su parte, es el componente electrónico fundamental que nos puso en el disparadero de la modernidad y de la transición hacia la sociedad de la información. Este abuelo de los microchips cumple 75 años en 2022. Se trata de un dispositivo que actúa como interruptor dejando pasar corriente a través de sí en función de si se le activa una señal de control. Unos y ceros (señal de entrada) generando unos y ceros (señal de salida) son la encarnación del bit y la magia de la lógica binaria que nos lleva desde el modesto transistor hasta un superordenador. La microelectrónica y la nanoelectrónica han permitido hacer esos transistores más pequeños y más rápidos hasta poder integrar en el mismo chip millares, decenas de millares, millones, miles de millones, millones de millones de transistores… Por ello ahora hablamos de memorias de terabytes y de procesadores que ejecutan billones de instrucciones por segundo.

Chip diseñado en el IMB-CNM que permite el registro neuronal de 1024 canales uECoG para aplicaciones de rehabilitación del habla (proyecto Europeo BrainCom FETPROACT-2016-732032).

La micro y nanoelectrónica son, por tanto, la orfebrería extrema que nos permite llegar hasta el “infinito informático” y más allá. Las memorias y los procesadores se hacen en fábricas de semiconductores (foundries) que son, a día de hoy, la sublimación de la complejidad tecnológica y el máximo exponente de la eficiencia y la productividad. Para producirlos se orquestan con precisión centenares de procesos en grandes espacios (clean rooms o ‘salas blancas’) que se mantienen bajo condiciones cuidadosamente controladas: temperatura y humedad estables, ausencia de vibraciones y un aire más limpio que el de un quirófano.

Una crisis de sistema productivo

Aunque la fabricación de chips tiene sus propios retos tecnológicos, ligados a los límites de la miniaturización continua, la crisis de los chips no es tecnológica, sino económica y de sistema productivo. Y no se debe a una única razón, sino a una serie de “catastróficas desdichas”. Esta crisis ha puesto de manifiesto que nuestro sistema hiperespecializado y ultraconectado no se defiende bien ante grandes perturbaciones. Parece evidente que la deslocalización de la producción y los esquemas de just in time en aras de la eficiencia económica suponen un importante riesgo cuando el transporte global no está asegurado y supone un costo elevado, y aquí el coste de la energía juega un gran papel.

Imagen de chip diseñado y fabricado en el IMB-CNM que contiene un sensor electroquímico inteligente para aplicaciones de salud y control de calidad (proyecto Europeo Pasteur CATRENE CT204).

Las grandes perturbaciones que sacuden al sistema productivo han sido la pandemia y, en cierta medida, el cambio climático, que se han aliado con la localización extrema en la producción de chips: aproximadamente el 85% de ellos se fabrican en Asia y hasta dos terceras partes solo en Taiwán, una isla del tamaño de Cataluña con una relación particular con la China continental. Precisamente, Taiwán vio afectada su producción de chips por un episodio severo de sequía, ya que el agua es un recurso importante en su fabricación.

La pandemia, por su parte, alteró notablemente el equilibrio entre la oferta y la demanda de semiconductores, que ya estaba tensionado por el impulso global y sostenido hacia una mayor digitalización. Una de sus principales consecuencias ha sido el aumento espectacular en la demanda de ocio electrónico y de herramientas de teletrabajo, así como la necesidad de dimensionar al alza toda la mega-infraestructura de interconexión asociada.

Relocalizar (en parte) la producción de chips

Consideremos algunos datos poco conocidos: construir una fábrica avanzada de semiconductores cuesta alguna decena de miles de millones de euros y ponerla en pie requiere mínimo dos años; el tiempo para conseguir un chip-en-mano no es muy diferente de los nueve meses de un embarazo; y, en un escenario de baja oferta, no toda la demanda es igualmente apreciada. En este sentido, los móviles y los ordenadores usan chips de mayor valor añadido, y más caros, que los que se usan en los vehículos. Móviles y ordenadores vieron aumentar sus pedidos durante la pandemia, y los vehículos redujeron y suspendieron los suyos a la espera de que se recuperara su propia demanda… pero, ahora que esta demanda ha aumentado, los productores de chips no tienen tanto aliciente en proporcionarlos cuando aún pasan apuros para cumplir con los pedidos de los primeros. La generación de millennials entiende que un problema en la interconexión digital global puede resolverse en minutos u horas, pero las personas boomers saben que reparar la interconexión física global (léase producir y transportar mercancías) requiere semanas o meses.

De la misma manera que es muy posible que la pandemia haga cambiar ciertos comportamientos para siempre, la crisis de los semiconductores puede alentar cambios duraderos. Tanto Estados Unidos como Europa tienen planes para aumentar su producción de chips. En el caso europeo, ese aumento de producción pasa por atraer empresas americanas o taiwanesas, pues no hay grandes productores locales de memorias y procesadores, y, por supuesto, no hay fabricas públicas de semiconductores ni se las espera. Conviene también no olvidar que los procesadores y las memorias son el rey y la reina en el tablero de los componentes electrónicos, pero hay otras piezas, todas necesarias, cuyo juego debe asegurarse también. Si los chips de los coches son alfiles o caballos, aún hay mucho peón que la crisis de los semiconductores amenaza con dejar atrás. Son chips de menor complejidad, pero igualmente necesarios, que podrían fabricarse en redes de salas blancas más pequeñas, de menor coste, y distribuidas geográficamente de forma que estén sometidas a menores vaivenes político-económicos.

*Luis Fonseca es investigador del CSIC y director en el Instituto de Microelectrónica de Barcelona (IMB-CNM, CSIC).

¿Ha resuelto la inteligencia artificial el enigma de la estructura de las proteínas?

Por Emilio Tejera* (CSIC)

Cuando oímos hablar del creciente poder de los ordenadores y, en concreto, de la inteligencia artificial, suelen llamarnos la atención los aspectos más perturbadores: que si sirve para colarnos bulos (aunque también para combatirlos), desafiar nuestra privacidad o volvernos más consumistas; que si los robots nos robarán los trabajos; incluso, que una inteligencia artificial, influida por los seres humanos, se ha vuelto racista. Al final, sentimos un temor instintivo que nos lleva a apagar el ordenador, pensando en Hal9000 o en Terminator. Sin embargo, hoy quiero mencionar la historia de una inteligencia artificial que, quizá, haya resuelto un enigma científico que llevaba más de 50 años desafiando a la comunidad científica. En una palabra, hoy quiero hablar del día en que una máquina nos hizo un gran favor.

Empezaremos con los artífices de este logro: Deepmind. La empresa, dirigida por Demis Hassabis y adquirida por Google, empezó desarrollándose sobre todo en el campo de los videojuegos, pero también utilizaba los clásicos juegos de mesa para perfeccionar sus propios sistemas de inteligencia artificial, como refleja el documental AlphaGo, que trata sobre el entretenimiento de origen chino denominado Go. En él se narra cómo su algoritmo fue capaz de derrotar de manera aplastante al campeón mundial de este juego milenario, mucho más complejo que el ajedrez.

Imagen del juego Go / Prachatai / Flickr

Los frikis de los juegos se meten en ciencia

Pero el equipo de Deepmind quería llegar mucho más lejos y aplicar su experiencia a la ciencia. En concreto, se interesaron por una cuestión clave para la biología: cómo conocer la estructura de una proteína –las moléculas que realizan buena parte de las funciones biológicas– a partir de su secuencia de aminoácidos (es decir, de sus componentes fundamentales). Resulta que poseemos esta secuencia básica de la mayoría de las proteínas, pero para obtener su estructura hay que realizar complicados estudios bioquímicos que tardan meses o años en extraer resultados. Por eso, siempre existió el interés en que las máquinas pudieran acortar este proceso y deducir las estructuras, aunque hasta ahora los resultados eran bastante pobres. Hasta que Deepmind, con su programa AlphaFold, ganó de modo rotundo las ediciones de 2018 y 2020 del concurso bienal CASP, que premia los software que trabajan en este ámbito. Se intuía que algo gordo iba a ocurrir y, en efecto, sucedió.

En julio de 2021, Deepmind, en colaboración con el Laboratorio Europeo de Biología Molecular, publicaba dos artículos en la prestigiosa revista Nature. En uno describían el proceso para crear una versión mejorada del software de AlphaFold (cuyo código fuente donaron al mundo, como corresponde a una investigación financiada en parte con fondos públicos). Y en el otro aportaban las estructuras del 98,5% de las proteínas de las células humanas: un resultado espectacular si tenemos en cuenta que hasta entonces solo conocíamos la estructura del 17% de ellas. Además, publicaron las estructuras de 365.000 proteínas de 20 tipos de organismos diferentes, muchos de ellos modelos clave para la investigación en biología. El manantial de nueva información a disposición de la comunidad científica era impresionante (y sigue aumentando).

Imagen de la estructura de la mioglobina, una de las primeras proteínas que se desentrañó/ Wikipedia

Un software que ahorraría años de investigación

Pero, ¿por qué es tan importante averiguar la estructura de las proteínas? Gracias a este conocimiento, podemos analizar cómo actúan estas moléculas y, a partir de ahí, elaborar fármacos que modifiquen su función y nos permitan actuar sobre toda clase de enfermedades. De hecho, softwares similares a AlphaFold podrían predecir cómo un medicamento interaccionará con determinada proteína y, así, ahorrar años de investigación y acelerar el desarrollo de nuevos tratamientos.

¿Ha desentrañado finalmente Deepmind este tan descomunal como intrincado problema? Probablemente tardaremos años en dilucidarlo, conforme las técnicas clásicas confirmen (o no) que las estructuras propuestas por AlphaFold en tan sólo unas pocas horas de análisis coinciden con las que realmente poseen dichas proteínas. Además, se plantean nuevos interrogantes: quizá existan estructuras concretas frente a las que AlphaFold no sea lo suficientemente resolutiva. Hasta ahora, el software no ha entrado en los cambios que se producen en las proteínas cuando interaccionan con otras moléculas; y, entre conocer la conformación de una proteína, y curar enfermedades como el alzhéimer, queda por recorrer un mundo. No obstante, si se confirma (de momento, los últimos artículos refuerzan tanto las perspectivas como las dudas), será un avance fundamental; y no logrado por especialistas en biología que llevan años estudiando la cuestión, sino por un grupo de frikis expertos en informática que empezaron trabajando en videojuegos.

Deepmind está desarrollando otras aplicaciones para sus software: quiere diagnosticar enfermedades mediante el análisis de imágenes de fondos de ojo, así como predecir dolencias futuras a partir de las constantes básicas de un individuo. Las aplicaciones de la inteligencia artificial (capaz de aprender de sí misma, y de detectar patrones que permanecen ocultos al intelecto humano) son todavía innumerables; entre otras cosas porque muchas, probablemente, no somos capaces aún de imaginarlas.

La inteligencia artificial, desde luego, representa un reto para la humanidad, pero, como la mayor parte de las creaciones humanas, presenta tantos inconvenientes como ventajas. Al final, la tecnología es una herramienta: la gran responsabilidad que tenemos es que nos lleve a prosperar como sociedad. De no ser así, poco importará que llegue Terminator para acabar con la humanidad: seremos nosotros mismos quienes habremos desaprovechado esta inmensa oportunidad.

* Emilio Tejera (@EmilioTejera1) es responsable de la Unidad de Biología Molecular del Instituto Cajal (IC-CSIC). En este post de su blog realiza una descripción más detallada del tema de este artículo.

Ultrasonidos: la revolución silenciosa de la medicina moderna

Por Francisco Camarena (CSIC-UPV)*

En 1983 nació la primera persona de mi familia sabiéndose de antemano cuál iba a ser su sexo. A su madre le habían hecho unas pruebas un poco raras echándole un gel pastoso y frío sobre el vientre, y el ginecólogo se había adelantado a la naturaleza diciendo: “creo que es una niña”. Las imágenes eran grises, ruidosas, bastante confusas y con mucho movimiento. ¿Cómo iba a deducirse de ese enredo de sombras que aquello iba a ser una niña?, debió pensar su madre con escepticismo.

Medida de la translucencia nucal con ecografía en la semana 13 de embarazo.

Corrían los años de la movida y las técnicas de imagen para diagnósticos médicos también se revolucionaban: acababan de concederles el Premio Nobel a los creadores de esa maravilla de imagen 3D que es la Tomografía Axial Computerizada (TAC). Los inventores de la resonancia magnética, también premiados con el Nobel, andaban haciendo imágenes espectaculares del cerebro humano utilizando propiedades cuánticas de la materia; y había unos científicos que obtenían imágenes de los procesos metabólicos del organismo con nada más y nada menos que antimateria, que es lo que se usa para obtener una imagen PET (Tomografía por Emisión de Positrones). Así que, ¿quién iba a dar importancia a unas imágenes tan pobres como las que se empezaban a tomar con sonidos?

Ventajas de los ultrasonidos

Lo cierto es que las imágenes tomadas con ultrasonidos no eran 3D, pero eran en tiempo real. Solo daban información anatómica, pero era complementaria a la que proporcionaban los Rayos X. Eran ruidosas, sí, pero incluso del ruido se podía extraer información relevante para el diagnóstico. Es verdad que dependían del operador que manejase la máquina, pero como no era más que sonido, y no podía ionizar átomos y afectar a nuestras moléculas de ADN, siempre se podía repetir la prueba las veces que fuese necesario. Y, sobre todo, se podía tener cien máquinas de ultrasonidos con lo que cuesta un TAC, una resonancia o un PET, y eso sí que es harina de otro costal.

Imagen de Microscopia de Localización con Ultrasonidos y Doppler Color de un corte coronal del cerebro de un ratón

Las décadas de los ochenta y noventa del S.XX permitieron la consolidación a nivel mundial de la técnica, con sus grandes éxitos en el campo de la obstetricia y la cardiología, que prácticamente no existirían sin esta modalidad de imagen, y con el desarrollo de la imagen Doppler, 3D y, en el campo de la terapia, de la litotricia para el tratamiento de cálculos renales y biliares con ondas de choque. El arranque del siglo XXI no fue menos fructífero: la elastografía, una variante de imagen ecográfica, permitió la mejora de los diagnósticos mediante la obtención de mapas de la dureza de los tejidos, y la aparición de sistemas cada vez más pequeños y económicos posibilitó la implantación de la tecnología en pequeñas clínicas de todo el mundo. En 2014, el número de pruebas con ultrasonidos a nivel mundial ascendió a 2.800 millones (éramos 7.200 millones de habitantes sobre la faz de la Tierra en ese momento), lo que aupó esta tecnología, junto con la de Rayos X, a la cima de las modalidades de imagen más utilizadas en medicina. Además, durante la segunda década de este siglo se ha extendido el uso del ultrasonido terapéutico, principalmente para producir quemaduras internas en los tejidos mediante la focalización del sonido, de un modo parecido a como focaliza una lupa la luz solar, lo que está permitiendo tratar de forma no invasiva enfermedades como el temblor esencial, la enfermedad de Parkinson, el cáncer de próstata o la fibrosis uterina.

Nuevas terapias contra el cáncer

El futuro próximo se vislumbra muy prometedor. Las mejoras técnicas están disparando el número de aplicaciones y en pocos años veremos consolidarse nuevas formas de terapia, como la histotripsia: ultrasonidos focalizados de altísima intensidad que trituran literalmente los tejidos tumorales y esparcen en derredor antígenos que favorecen la respuesta inmunológica del cuerpo contra el propio tumor. Otras novedades serán los dispositivos para modular con precisión quirúrgica el funcionamiento del cerebro humano y modalidades de imagen de una espectacularidad propia de la ciencia ficción, como la optoacústica o la microscopía de localización por ultrasonidos.

Mapeo de los vasos sanguíneos del cerebro humano realizado con ultrasonidos. 

Los ultrasonidos, ese sonido que los humanos no podemos oír, son la base de una tecnología que ha sido uno de los pilares sobre los que se ha construido el edificio de la medicina moderna. Han supuesto una revolución trascendental en el modo de observar el interior del cuerpo humano, hasta hace poco tan misterioso y opaco, y nos han permitido verlo como veríamos con los oídos, como ven los murciélagos, como componen su mundo las personas invidentes. Puede parecer menos, pero los murciélagos vuelan a oscuras y eso no lo pueden hacer los pájaros con sus flamantes ojos. Ha sido una revolución tranquila, de avances graduales pero fiables, sin excesivo ruido mediático, sin premios Nobel, sin estridencias, como no podía ser de otra manera al tratarse, como se trata, de sonido inaudible. Una revolución silenciosa, sí, pero una revolución, al fin y al cabo.

 

*Francisco Camarena Fermenía trabaja en el Instituto de Instrumentación para Imagen Molecular (i3M, CSIC-UPV), donde dirige el Laboratorio de Ultrasonidos Médicos e Industriales (UMIL)

365 efemérides para 2022. ¡Descarga gratis el nuevo calendario científico!

Por Mar Gulis (CSIC)

¿Sabías que tal día como hoy, en 1906, nació el químico Albert Hofmann, que descubrió la estructura de la quitina y demostró los efectos psicotrópicos del LSD mientras estudiaba los alcaloides del cornezuelo del centeno? ¿Y que el 17 de mayo de 2014 descubrieron en Argentina el dinosaurio Patagotitan mayorum, el más grande conocido hasta el momento? En el Calendario científico escolar 2022 encontrarás estos y otros 363 aniversarios científicos, con historias tan curiosas como la del 25 de junio: en 1498, un emperador chino presentó el primer cepillo de dientes provisto de cerdas, las cuales se extraían del cuello de cerdos y se cosían a unos mangos de bambú o de hueso. Más adelante, los mercaderes llevaron este invento a Europa.

Con el objetivo de visibilizar los avances de la ciencia y la tecnología a lo largo de la historia, así como a sus protagonistas, el Instituto de Ganadería de Montaña (IGM), centro mixto del Consejo Superior de Investigaciones Científicas (CSIC) y la Universidad de León, ha desarrollado un año más esta iniciativa, que cuenta su tercera edición, dirigida fundamentalmente al público infantil y joven. El Calendario científico escolar 2022, así como la guía didáctica para diferentes niveles y asignaturas, se puede descargar gratuitamente en la web del IGM en diez idiomas diferentes: castellano, gallego, catalán, euskera, asturiano, aragonés, inglés, francés, esperanto y árabe.

En esta ocasión, el nuevo calendario ha querido poner el foco en la igualdad y la diversidad a través de conmemoraciones como el nacimiento de la médica e inventora Patricia Bath el 4 de noviembre de 1942. Ella fue la primera mujer afroamericana en recibir una patente con finalidades médicas, y su invento, el aparato Laserphaco Probe, se usa en la actualidad para tratar las cataratas. La publicación también recuerda, entre otras cosas, que el 5 de julio de 2018 se celebró el primer Día del orgullo LGTBIQA+ en las disciplinas de ciencia, tecnología, matemáticas e ingeniería, y que el 4 de septiembre de 1939 Alan Turing comenzó a trabajar en el descifrado de los códigos secretos alemanes en la Segunda Guerra Mundial.

Del mismo modo, el calendario 2022 recoge efemérides que recuerdan la importancia de la conservación del medio ambiente y de las especies, entre las cuales está la del fallecimiento, el 7 de septiembre de 1936, del último tigre de Tasmania, motivo por el que Australia conmemora cada 7 de septiembre el Día de las Especies Amenazadas.

Pero entre las novedades de esta edición destacan los hitos sobre arabismo y ciencia hispanomusulmana, que ponen en valor nuestra herencia. ¿Sabías que la Alhambra de Granada está adornada por los poemas de Ibn al-Jatib? Este médico, escritor y político andalusí nació el 15 de noviembre de 1313 y escribió más de 70 obras, que incluyen un tratado sobre la epidemia de la peste. El Calendario científico escolar 2022 nos descubre también historias como la de Al-Razi que, entre muchas cosas, realizó la primera destilación del petróleo para obtener querosenos y es considerado el descubridor del ácido sulfúrico y del etanol.

La vacunación: desde 1796 a nuestros días

El desarrollo del nuevo calendario ha sido posible gracias a la ayuda de numerosas entidades y personas colaboradoras, entre las que destaca la comunidad educativa. Además de estar en permanente contacto con el profesorado a través de las formaciones para integrar el uso del calendario en las aulas, la organización ha realizado campañas para que sea el propio alumnado el que envíe propuestas para el nuevo calendario. Una de ellas fue durante la Semana Mundial de la Inmunización y el resultado fue un éxito.

Muchas de las propuestas recibidas sobre la vacunación como bien público que salva vidas se han incluido en la publicación. Resaltamos algunas de ellas: el 14 de mayo de 1796, el niño James Phipps se convirtió en la primera persona vacunada de la historia, cuando Edward Jenner le administró la vacuna que había desarrollado contra la viruela; el 1 de abril de 1885, el médico Jaime Ferrán empezó a inocular en Valencia su vacuna contra el cólera, la primera contra esta enfermedad, para intentar frenar la epidemia que se extendía por la ciudad; el 8 de agosto de 2013 probaron una nueva vacuna contra la malaria con un índice de eficacia de hasta el 100%; el 27 de marzo de 2014 se dio por erradicada la poliomielitis del sudeste asiático gracias a las campañas de vacunación; y finalmente, el 27 de diciembre de 2020, Araceli Hidalgo, de 96 años, se convirtió en la primera persona vacunada frente a la COVID-19 en España.

Y si crees que haces buenos selfies, espera a ver el que se tomó el astronauta Akihiko Hoshide el 5 de septiembre de 2012 mientras orbitaba alrededor de la Tierra en la Estación Espacial Internacional. La foto, en la que se ve el Sol al fondo, se hizo viral en redes sociales.

Descarga gratis el nuevo Calendario científico escolar 2022 y no te pierdas todas las efemérides destacadas del año.

FOTCIENCIA18: descubre en un minuto las mejores imágenes científicas de 2021

Por Mar Gulis (CSIC)

Una dalia artificial de carbonato cálcico, la intrincada red de nanofibras de una mascarilla FFP2 o el volcán de colores creado por un singular organismo conocido como ‘huevas de salmón’ son algunos de los temas retratados en las imágenes seleccionadas en la 18ª edición de FOTCIENCIA, una iniciativa organizada por el Consejo Superior de Investigaciones Científicas (CSIC) y la Fundación Española para la Ciencia y la Tecnología (FECYT) con el apoyo de la Fundación Jesús Serra.

En esta edición, a las modalidades de participación habituales –Micro, General, Alimentación y nutrición, Agricultura sostenible y La ciencia en el aula– se ha sumado una modalidad especial para recoger imágenes que hayan plasmado la importancia de la ciencia y la tecnología frente al COVID. Un comité formado por doce profesionales relacionados con la fotografía, la microscopía, la divulgación científica y la comunicación ha valorado y seleccionado las imágenes más impactantes y que mejor describen algún hecho científico.

De izquierda a derecha y de arriba abajo: ‘Ser o no ser’, ‘Jeroglíficos del microprocesador’, ‘Volcán de mixomicetos’, ‘Pequeña Gran Muralla’, ‘Metamorfosis floral’, ‘El bosque de parasoles’, ‘El arcoíris digital’ y ‘Todo es polvo de estrellas’.

De izquierda a derecha y de arriba abajo: ‘Ser o no ser’, ‘Jeroglíficos del microprocesador’, ‘Volcán de mixomicetos’, ‘Pequeña Gran Muralla’, ‘Metamorfosis floral’, ‘El bosque de parasoles’, ‘El arcoíris digital’ y ‘Todo es polvo de estrellas’.

Los transistores con forma de jeroglífico de un microprocesador, la transformación de las flores de girasol en frutos o el envés de la hoja del olivo son otros de los temas retratados. El objetivo es acercar la ciencia a la sociedad a través de fotografías que abordan cuestiones científicas mediante una perspectiva artística y estética.

Con estas imágenes, que puedes ver en el vídeo que acompaña a este texto, y una selección más amplia de entre las 556 recibidas en esta ocasión, próximamente se realizará un catálogo y una exposición itinerante, que será inaugurada en primavera de 2022 y recorrerá diferentes salas expositivas por toda España a lo largo del año.

En esta 18ª edición, FOTCIENCIA se ha sumado nuevamente a los 17 Objetivos de Desarrollo Sostenible declarados por Naciones Unidas. Más información en www.fotciencia.es

Para saber más sobre las imágenes escogidas, pincha aquí.

Imágenes seleccionadas:

Modalidad Micro:

– ‘Ser o no ser’. Autoría: Isabel María Sánchez Almazo. Coautoría: Lola Molina Fernández, Concepción Hernández Castillo

– ‘Jeroglíficos del microprocesador’. Autoría: Evgenii Modin

Modalidad General:

– ‘Volcán de mixomicetos’. Autoría: José Eladio Aguilar de Dios Liñán

– ‘Todo es polvo de estrellas’. Autoría: David Sánchez Hernández Modalidad

La ciencia frente al COVID:

– ‘Pequeña gran muralla’. Autoría: Alberto Martín Pérez. Coautoría: Raquel Álvaro Bruna, Eduardo Gil Santos

Modalidad Alimentación y nutrición:

– ‘Metamorfosis floral’. Autoría: David Talens Perales

Modalidad Agricultura Sostenible:

– ‘El bosque de parasoles’. Autoría: Enrique Rodríguez Cañas

Modalidad La ciencia en el aula:

– ‘El arcoíris digital’. Autoría: Carlota Abad Esteban, Lourdes González Tourné

Olas monstruo eléctricas: el fenómeno que explica el riesgo de un gran apagón

Por Antonio Turiel* y Mar Gulis

A lo largo de los tiempos, los marinos han relatado historias de enormes olas que aparecen de la nada en mar abierto, se elevan 10 o 20 metros, recorren uno o dos kilómetros y desaparecen tras arrasar todo lo que encuentran a su paso. Sin embargo, hasta la década de los 90 del siglo pasado, las olas monstruo no fueron objeto de estudio científico. Pertenecían al terreno de las leyendas urbanas… o, mejor dicho, marinas. La mayoría de la gente creía que solo eran fabulaciones de viejos y ebrios lobos de mar, y las compañías de seguros que eran historias inventadas para encubrir negligencias causantes del hundimiento o la desaparición de barcos. Hasta que las imágenes de cámaras instaladas en navíos, plataformas marinas y satélites acabaron por dar la razón a los marinos: las olas monstruo existen.

Las causas del fenómeno son complejas, pero no hay duda de que en algunos casos ocurre simplemente porque es estadísticamente posible. En el mar hay muchas olas. La mayoría están generadas por el viento, aunque en su formación también intervienen otros factores, como tormentas lejanas o el relieve del suelo marino. Normalmente, esas olas se propagan en diferentes direcciones, cada una con una amplitud, una frecuencia y una longitud de onda diferente, algunas más rápido, otras más lento… Pero a veces, por puro azar, durante un pequeño periodo de tiempo se sincronizan, llegan todas a la vez al máximo, y se genera una auténtica pared de agua que se lleva todo por delante.

Algo parecido puede ocurrir en los sistemas eléctricos. Mucha gente piensa que la electricidad es como el agua, que fluye de forma continua por las tuberías. Pero no es así; la corriente de la red eléctrica es alterna: oscila como una onda. Por eso es muy importante que todos los sistemas que vuelcan electricidad en la red estén sincronizados. Por decirlo así, todos tienen que subir y bajar al mismo tiempo. Cuando esto no ocurre, se empiezan a propagar ondas de forma desordenada, como en el mar, que pueden acabar provocando daños graves en la infraestructura eléctrica.

Si la frecuencia no está perfectamente afinada en la red, puede darse el caso de que en determinados sitios la tensión baje a cero de golpe –lo que produce apagones en cascada– y en otros que la potencia se junte por completo, se sincronice y sea 10 o 20 veces mayor de lo que tendría que ser. Cuando esto ocurre, no hay nada que lo resista: literalmente las líneas de alta tensión y las estaciones transformadoras se desintegran.


Los peligros de una gran red interconectada

Obviamente, la formación de este tipo de turbulencias es un riesgo que Red Eléctrica Española y el regulador europeo siempre están vigilando. El problema es que las posibilidades de que ocurran eventos de este tipo han ido en aumento a medida que se han ido instalando más y más sistemas renovables en una red cada vez más grande e interconectada.

Los mecanismos de protección de la red eléctrica europea (en la que la frecuencia es de 50 hercios) están pensados para un modelo de grandes centrales –hidroeléctricas, térmicas, nucleares, de ciclo combinado, etc.– que suministran mucha potencia. Cuando una anomalía supera el umbral de los 0,2 hercios durante más de dos minutos, el sistema desconecta la parte de la red en la que se está produciendo la perturbación. Lo que pasa es que ahora, además de grandes centrales, tenemos un gran número de unidades de producción que generan menos cantidad de energía –paneles solares y turbinas eólicas, fundamentalmente–en una red que se ha integrado a escala europea y que, por tanto, es mucho más grande. En este esquema, las anomalías se producen con mayor frecuencia y se propagan en tiempos mucho más cortos, por lo que el umbral de tolerancia establecido resulta excesivamente relajado. Esto está generando problemas continuamente. De hecho, el 8 de enero de este año hubo un incidente grave: una subfrecuencia en Croacia se combinó con una superfrecuencia en Alemania y no hubo más remedio que separar la red en dos.

Si los problemas suceden sobre todo en Europa Central no es por casualidad. Alemania en 20 años ha pasado de producir un 6% de su electricidad con energías renovables a un 38%. Además, ha integrado su red de alta tensión con la de sus vecinos de forma mucho más intrincada que en otras partes del continente.

Desde el punto de vista económico, resultaba muy interesante integrar todas las redes del continente lo máximo posible para transportar la energía intermitente de las renovables. Si el viento sopla en Polonia, pero no en Galicia, ¿por qué no llevar la energía de un lugar al otro? Lo que pasa es que en Europa Central este planteamiento se ha llevado a cabo sin instalar sistemas adicionales de estabilización, que hubieran encarecido el coste de la implantación de las energías renovables.

Por fortuna, actualmente España está relativamente a salvo de este riesgo. Como nuestra red eléctrica está poco interconectada con la del resto del continente, en caso de que se produzca una ola monstruo eléctrica en Europa, será relativamente sencillo desconectarnos mientras dure el peligro. En cualquier caso, esto debería hacernos reflexionar y ser más previsores a la hora de implantar nuevos sistemas renovables en nuestro territorio.


*
Antonio Turiel es investigador del CSIC en el Instituto de Ciencias del Mar. Su trabajo se centra en la oceanografía por satélite, pero es también un experto en recursos energéticos. En el blog The Oil Crash y el libro Petrocalípsis analiza el agotamiento de los combustibles fósiles y las dificultades de la transición a un modelo ‘eléctrico’ de renovables.