Archivo de la categoría ‘Tecnologías’

¿Sabías que la herrumbre (si es muy pequeña) tiene muchos usos médicos?

Por Fernando Herranz (CSIC)*

El tamaño sí que importa y lo cierto es que la herrumbre, el hierro oxidado que puede terminar apareciendo en piezas metálicas al estar tiempo sometidas a las condiciones atmosféricas, deja de ser una molestia si la empleamos a escala nanométrica. No solo eso, sino que cuando su tamaño es muy pequeño –justo antes de llegar al mundo de los átomos y las moléculas– algunos compuestos de la herrumbre –hidróxidos y óxidos de hierro– pueden utilizarse para diagnosticar enfermedades o tratar el cáncer.

Herrumbre

No hay duda de que a escala macroscópica la herrumbre constituye un serio problema, tanto a nivel estético –cuando afecta a superficies pintadas– como estructural ­–ya que, si penetra en profundidad, el metal presenta una resistencia mecánica mucho menor–. Esto explica la variedad de productos que se venden para evitar la formación de herrumbre o facilitar su eliminación.

Sin embargo, compuestos como la magnetita, uno de los óxidos más presentes en la herrumbre, tienen numerosas aplicaciones en el ámbito de la nanotecnología. Esta rama de la ciencia consiste en la producción y manipulación de materiales a escala nanométrica, es decir, que tienen al menos una dimensión de alrededor de 100 nanómetros (nm). A esta diminuta escala, empezamos a ver cosas muy curiosas que hacen que el óxido de hierro presente nuevas propiedades.

Pero, ¿qué ocurre cuando un material como la magnetita se forma a escala nanométrica para que sea tan distinto a cuando nos lo encontramos en el día a día? La magnetita macroscópica es fuertemente magnética, un imán, para entendernos. Cuando ese material se tiene en, por ejemplo, una esfera (una nanopartícula) de un diámetro de 10 nm, pasa a mostrar una propiedad llamada superparamagnetismo. De forma muy simple; todos los ‘pequeños imanes’ que constituyen el material están orientados en el mismo sentido dentro de la esfera. Debido a su tamaño, a temperatura ambiente, estas nanopartículas en agua no presentan magnetismo ya que cada esfera está dando vueltas al azar, sin una orientación definida. Sin embargo, cuando se acerca un imán, todas las nanopartículas se orientan y producen una respuesta magnética muy intensa. Esta propiedad de poder ‘enceder y apagar’ su magnetismo tiene múltiples aplicaciones.

Cabeza resonancia magnética

Imagen de una cabeza humana obtenida por resonancia magnética.

Por ejemplo, en medicina. Las nanopartículas basadas en magnetita, o materiales relacionados como la maghemita, se usan en imagen médica, en técnicas como la imagen por resonancia magnética o la imagen de partículas magnéticas. En esta aplicación las nanopartículas se dirigen, una vez inyectadas, a la enfermedad que se quiere diagnosticar y, una vez allí, es posible detectarlas por la señal que producen. En la imagen por resonancia magnética lo que hacen las nanopartículas es modificar el comportamiento magnético de las moléculas de agua de nuestros tejidos. Los dos hidrógenos de la molécula de agua (H2O) son los responsables de la señal en esa técnica de imagen. Las nanopartículas de magnetita modifican la señal que se obtiene de esos hidrógenos; de esa forma permiten saber dónde se han acumulado las nanopartículas y, por tanto, dónde se encuentra la enfermedad. Otra ventaja de las nanopartículas para imagen por resonancia es que, según las condiciones en las que se produzcan, pueden hacer que la señal sea más brillante o más oscura, lo que ayuda al diagnóstico de distintas enfermedades.

Brújulas vivientes

El comportamiento magnético de estas nanopartículas también explica otra de sus aplicaciones más interesantes en el tratamiento del cáncer. La técnica se llama ‘hipertermia magnética’ y consiste en acumular las nanopartículas en el tumor para, una vez allí, aplicar un campo magnético desde el exterior y producir un calentamiento de las células tumorales que acabe con ellas. Dicho calentamiento es posible gracias a las propiedades magnéticas de este nanomaterial.

Cadena de magnetosomas en el interior de la bacteria

Cadena de magnetosomas en el interior de la bacteria. / Alicia Muela; Estibaliz Etxebarria (UPV/EHU).

No solo el ser humano se ha dado cuenta de la utilidad de las nanopartículas de magnetita: ¡las bacterias también lo saben! Algunos de estos microorganismos producen en su interior pequeñas nanopartículas de magnetita (y también algunos otros compuestos relacionados) que se disponen de forma alineada a lo largo de la bacteria; son los llamados magnetosomas. Pero, ¿qué ganan con esto las bacterias? La respuesta es la magnetorrecepción: la capacidad de detectar las líneas del campo magnético terrestre y, de esa manera, orientarse. De hecho, los microorganismos que producen magnetosomas en el hemisferio norte se ven atraídos por el sur magnético, mientras que aquellos en el hemisferio sur se ven atraídos por el norte magnético (es decir, se sienten atraídos por el imán más potente que ‘sientan’). Las bacterias se convierten en minúsculas brújulas vivientes gracias a la nanotecnología.

En resumen, en nanotecnología, el tamaño importa, y mucho. Un mismo material que a escala macroscópica presenta pocas propiedades interesantes, cambia completamente cuando se presenta en la escala de los nanómetros.

 

* Fernando Herranz dirige el Grupo de Nanomedicina del Instituto de Química Médica del CSIC y colaborador habitual del blog DCIENCIA.

¿Qué es la nanomedicina?

Por Fernando Herranz (CSIC)*

La nanomedicina consiste nada más (y nada menos) que en la aplicación de la nanotecnología para el diagnóstico y tratamiento de distintas enfermedades. Se trata de una rama de la medicina cuyo uso se está extendiendo a prácticamente todos los ámbitos de la salud, como la lucha contra el cáncer, las patologías cardiovasculares y las enfermedades raras; el desarrollo de nuevos antibióticos; o, como veremos, la mayoría de los test de embarazo que se realizan en la actualidad.

Spaghetti celulares

Células de tejido conectivo sobre material biomédico. / Álvaro A. González y Salvador D. Aznar (FOTCIENCIA12)

Pero, empecemos por el principio: ¿qué es la nanotecnología? Esta se puede definir como la producción, manipulación y estudio de la materia con, al menos, un tamaño en el rango de los 100 nanómetros (nm). Para hacernos una idea, el diámetro medio de un cabello humano es de unos 70.000 nanómetros. Estamos hablando por tanto de lo muy muy pequeño: la escala más pequeña antes de entrar en el mundo de las moléculas y los átomos.

¿Qué tiene de especial esa escala? ¿Por qué no hablamos simplemente de “micromedicina”? La clave está en que cuando confinamos la materia en la escala nanométrica los objetos se comportan de forma muy diferente a cómo lo hacen a escalas de tamaño mayores, debido a que en el nanomundo las propiedades fisicoquímicas de los materiales varían según su tamaño. Lo que podemos hacer con una partícula de dos nanómetros de un material es totalmente distinto a lo que podemos hacer con una partícula de 10 nanómetros del mismo material.

Estamos habituados a pensar que los compuestos químicos, como los principios activos de los medicamentos, muestran propiedades distintas cuando cambian su composición. Para explicarlo con un ejemplo muy simple: en el mundo macroscópico, si los compuestos químicos fueran fruta y quisiéramos obtener distintos sabores, lo haríamos utilizando distintas frutas: naranja para el sabor naranja, manzana para el sabor manzana, etc. De igual manera, el paracetamol sirve para el dolor, pero el antibiótico para la infección bacteriana. Sin embargo, en la escala nanométrica, el sabor no solo depende de la composición de un compuesto, sino también de su tamaño: una naranja de tres nanómetros de radio sabría completamente diferente a una naranja de ocho nanómetros de radio.

 

Nanopartículas de oro en los test de embarazo

Fijémonos por ejemplo en las nanopartículas de oro, uno de los materiales más empleados en nanomedicina. Cuando hablamos de nanomedicina, una de las herramientas más empleadas son precisamente las nanopartículas; esferas con un tamaño nanométrico.

A diferencia del oro que estamos acostumbrados a ver en el día a día, las nanopartículas de oro presentan una gama amplia de colores muy vivos que varían del rojo al morado según su tamaño. En esta variedad de colores radica la clave de una de sus aplicaciones: su uso como sensores. Un sensor se puede definir, de forma muy resumida, como un compuesto que da una señal y que, en presencia de aquello que queremos detectar, cambia dicha señal.

En el caso de las nanopartículas de oro, lo importante es que cuando se unen al compuesto que se trata de detectar, su superficie se modifica, cambian de tamaño y, por tanto, de color. Ese cambio puede ser observado a simple vista, lo que permite la identificación del compuesto en cuestión.

Nanopartículas de oro de tamaños diferentes dispersas en agua.

Nanopartículas de oro de tamaños diferentes dispersas en agua.

Hay multitud de usos médicos de las nanotpartículas de oro basados en su capacidad de cambiar de color, pero quizás el test de embarazo es el más conocido. En ese caso, la típica banda que aparece si el resultado es positivo, se debe al cambio de tamaño de las nanopartículas de oro que se produce solo si se unen a la hormona gonadotropina coriónica humana, cuya presencia determina si hay un embarazo.

Como en toda nueva tecnología, el tiempo dirá cuáles de los nuevos desarrollos se convierten en nuevas terapias al alcance de todos y cuáles se quedarán por el camino. Al menos, por el momento, podemos olvidarnos de las típicas imágenes de ciencia ficción donde pequeños robots circulan por la sangre haciendo distintas labores. Lo que está claro es que la nanomedicina ha venido para quedarse y que su uso abre un campo inmenso de posibles y revolucionarias aplicaciones destinadas a mejorar el diagnóstico y tratamiento de algunas de las enfermedades más difíciles de diagnosticar y tratar en la actualidad.

 

* Fernando Herranz dirige el Grupo de Nanomedicina del Instituto de Química Médica del CSIC y colaborador habitual del blog DCIENCIA.

¿Para qué sirve un láser?

Por José Vicente García Ramos (CSIC)*

Cuando se inventó, en 1960, el láser no servía para nada. De hecho, en aquellos tiempos algunos científicos se referían a él como “una solución en busca de problema”. Entonces, ¿para qué lo inventaron? Parece que querían probar, experimentalmente, que el mecanismo de amplificación de la luz por emisión estimulada, predicho por Einstein en 1917 y demostrado con microondas en 1954, podía extenderse a la luz visible.

Hoy, sin embargo, la situación es muy diferente y el láser ha encontrado tantas aplicaciones que nos resulta casi imposible enumerarlas. Las tres características que diferencian la luz de un láser de la luz del Sol o de la generada por una bombilla son que, en el caso del láser, se trata de un haz de luz monodireccional, monocromático y coherente.

Hoy día los láseres tienen numerosas y variadas aplicaciones. / Wikimedia Commons

Hoy día los láseres tienen numerosas y variadas aplicaciones. / Wikimedia Commons

Cualquier láser contiene al menos tres elementos fundamentales: un medio activo, un sistema de bombeo y una cavidad resonante. El medio activo es el material (sólido, líquido o gaseoso) que emite la luz. Para que este medio activo emita luz hay que excitarlo de alguna manera, del mismo modo que el filamento de una bombilla necesita una corriente eléctrica que pase por él. En el caso de un láser se trata del sistema de bombeo, que puede consistir en otro láser, una lámpara convencional o una corriente o descarga eléctrica. El medio activo se coloca entre dos espejos que forman una cavidad resonante donde la luz rebota entre ellos y ayuda a la amplificación, como lo que ocurre en la caja de resonancia de una guitarra que amplifica las ondas acústicas. Uno de los espejos es semirreflectante, por lo que parte de la luz amplificada sale de la cavidad resonante en forma de haz.

El volumen de información que transmite una onda electromagnética depende de su frecuencia; en este sentido, la luz de un rayo láser resulta idónea para la transmisión de señales. Por eso, entre sus aplicaciones más usadas está la lectura de discos compactos, la fabricación de circuitos integrados y la lectura de códigos de barras. En el ámbito de la medicina, la tecnología láser se aplica a los bisturís cauterizantes, ya que permite realizar cortes muy finos de gran precisión, evitar cualquier riesgo de contagio y cauterizar de manera inmediata, alejando el peligro de hemorragias.

Fibra óptica, impresoras o espionaje

Sin embargo, muchas de las aplicaciones del láser no dependen tanto de su capacidad para generar un rayo de luz como del hecho de que representa una concentración extremadamente intensa de energía. Basándonos en esta propiedad, podemos enumerar tres aplicaciones sumamente importantes en el terreno de la óptica. Una de ellas son las telecomunicaciones mediante fibra óptica. En este caso, las señales eléctricas que hasta hace poco tiempo se desplazaban a través de conductores metálicos han sido reemplazadas por pulsos ópticos que se transmiten a través de fibra de vidrio del grosor de un cabello. Como potente fuente de luz, el láser confiere a estas fibras una elevada capacidad de transmisión.

Espectáculo de luces con láseres. / kpr2 - Pixabay

Espectáculo de luces con láseres. / kpr2 – Pixabay

La segunda aplicación óptica importante está en la holografía, que es una técnica para crear imágenes tridimensionales, inventada en 1947 por el ingeniero eléctrico húngaro Dennis Gabor (1900-1979), que obtuvo por ello el Premio Nobel en 1971. Esta técnica se basa en la interferencia entre dos rayos de luz. Uno de los aspectos básicos del sistema es la necesidad de utilizar luz coherente, y cuando se inventó solo se disponía de fuentes relativamente débiles de este tipo de luz. La llegada del láser transformó la situación, porque la generación de una poderosa fuente de luz coherente es su esencia. Con el tiempo, la holografía llegó a hacerse muy familiar en una variedad de formas, como en la marca de seguridad de las tarjetas de crédito y en publicidad.

La tercera aplicación importante está en las impresoras de los ordenadores, donde, controlando un haz láser, se dibujan las palabras que se quieren imprimir.

También podemos destacar las aplicaciones que dependen de su capacidad para concentrar una gran cantidad de energía sobre una superficie muy pequeña (alrededor de un millón de vatios por centímetro cuadrado) durante un periodo de tiempo extremadamente breve. Algunas de las más importantes aplicaciones industriales de los láseres son fruto de esta capacidad: la perforación, la soldadura y el corte de distintos materiales.

Además, puesto que un rayo láser es muy fino y prácticamente no sufre divergencias, se puede usar para medir largas distancias con gran precisión. La técnica (semejante a la del radar) consiste en captar el rayo reflejado por el objeto distante y medir el tiempo transcurrido desde el envío de la señal hasta la recepción de su reflejo. Conociendo la velocidad de la luz, resulta fácil calcular la distancia. En los años setenta, este método se empleó para determinar con precisión la distancia de la Luna, utilizando los reflectores que habían instalado allí los astronautas norteamericanos.

Pero eso no es todo, también se han empleado láseres hasta para temas relacionados con el espionaje. En 1968 se descubrió que un láser puede detectar perfectamente desde el exterior las vibraciones del cristal de las ventanas producidas por las conversaciones en el interior de una casa. Vemos cómo el láser, que en un principio era como “un invento en busca de un empleo”, tiene en la actualidad un sinfín de variadas aplicaciones.

 

* José Vicente García Ramos es Vocal del Comité de Ética del CSIC y autor del libro Las moléculas: cuando la luz te ayuda a vibrar (Editorial CSIC-Los Libros de la Catarata). Hasta su jubilación en 2016 fue investigador en el Instituto de Estructura de la Materia del CSIC.

Cómo nos puede ayudar la ciencia frente al despilfarro de alimentos

Por Ana Mª Veses (CSIC)*

El otro día fui a un restaurante con mi familia. En la mesa de al lado, un niño se puso a protestar porque no le gustaba la comida que le habían servido; inmediatamente, un camarero acudió para retirarle el plato.

Esta anécdota contrasta con la realidad que nos muestra la Organización de las Naciones Unidas para la Alimentación y la Agricultura (FAO): mientras cerca de 800 millones de personas sufren desnutrición en el mundo, según datos de 2017, aproximadamente un tercio de la producción mundial de alimentos se pierde o se desperdicia.

Además, este despilfarro produce graves consecuencias para el medioambiente. Tirar comida supone una notable pérdida de recursos naturales (tierra, agua y energía) y un incremento de emisiones de gases de efecto invernadero, para producir unos alimentos que finalmente nadie consumirá. Si ‘dilapidar comida’ fuera un país, sería el tercero con más emisiones de dióxido de carbono, detrás de China y EEUU. Asimismo, los alimentos que producimos pero luego no comemos consumen un volumen de agua equivalente al caudal anual del río Volga.

¿Por qué pasa esto? ¿Alguien se ha planteado hacer algo al respecto?

En los países industrializados principalmente se desperdician tantos alimentos porque la producción excede a la demanda, porque los supermercados imponen altos estándares estéticos a los productos frescos y descartan aquellos que son más feos, y porque se piensa que tirar es más cómodo que reutilizar.

En cambio, en países en vías de desarrollo, según indican estudios de la FAO, el desperdicio de alimentos por parte de los consumidores es mínimo. En estos países, sin embargo, son los inadecuados sistemas comerciales y las escasas y deficientes instalaciones de almacenamiento y procesamiento los que provocan grandes pérdidas de alimentos.

Desde las instituciones públicas se están desarrollando diversas estrategias y planes de actuación, a distintos niveles, para controlar y reducir estos desperdicios. Se han puesto en marcha planes de sensibilización cuya finalidad es modificar hábitos y modelos de consumo en las comunidades, como la difusión de buenas prácticas de conservación de productos en los hogares a través de los medios de comunicación o aplicaciones móviles para la sensibilización e innovación social o para la redistribución de excedentes.

Ciencia y tecnología para desperdiciar menos

Por otro lado, la ciencia y la tecnología contribuyen a generar herramientas que puedan disminuir el desperdicio de alimentos a lo largo de toda la cadena alimentaria. La creación de nuevas técnicas de conservación de alimentos, diseños de envases más resistentes, así como el uso de tecnologías limpias y la identificación de dónde se producen las pérdidas de producto son algunas de las alternativas que se investigan. Por ejemplo, ya se está trabajando en el desarrollo de envases más resistentes al transporte, que puedan volver a cerrarse fácilmente o divididos en porciones que aumenten la vida útil de los alimentos.

El catálogo de iniciativas nacionales e internacionales sobre el desperdicio alimentario realizado por la Agencia Española de Seguridad Alimentaria y Nutrición (AESAN) reúne iniciativas como un papel diseñado en 2010 (por la empresa Fenugreen) que consigue duplicar el tiempo de conservación de frutas y verduras frescas. Está impregnado con distintas especias que inhiben el crecimiento de hongos y bacterias y, además, contiene un determinado aroma que informa de si el sistema sigue siendo efectivo. Este papel, utilizado tanto en la agricultura como en hogares de todo el mundo, tiene una vida de tres semanas y después se puede aprovechar como abono.

Otras iniciativas aseguran la integridad del sellado en los envases mediante la selección de materiales de difícil perforación o desarrollan envases activos que evitan la entrada de sustancias indeseables al tiempo que liberan otras beneficiosas para la conservación del producto, como biocidas, antioxidantes o compuestos que absorben el oxígeno y la humedad.

Algunas líneas de investigación se basan en la reutilización y el reciclaje de subproductos industriales para evitar la disposición en vertedero, de manera que se puedan desarrollar nuevos productos a partir de los materiales excedentarios, recuperar compuestos de interés para utilizarlos como aditivos o ingredientes en otras industrias, así como obtener nuevos productos más saludables.

En el Instituto de Ciencia y Tecnología de Alimentos y Nutrición (ICTAN) del CSIC, diversos grupos de investigación trabajan con residuos alimentarios procedentes de las industrias que usan productos vegetales y animales, con el objetivo de revalorizarlos. Uno de ellos es la okara, un subproducto de la soja que se obtiene tras extraer la fracción soluble para la producción de bebida de soja o tofu, y que antes era eliminado en las industrias de procesamiento. Al tratarla con altas presiones hidrostáticas y enzimas específicas, se consigue por un lado aumentar los carbohidratos solubles al doble de los valores iniciales y, por otro, incrementar sus capacidades prebióticas, favoreciendo el crecimiento de bacterias beneficiosas (Bifidobacterium y Lactobacillus) y la inhibición de otras potencialmente perjudiciales. Se ha comprobado que la okara tratada, suministrada a ratas que habían seguido una dieta grasa, frena la ganancia de peso, reduce los niveles de triglicéridos en plasma y aumenta la absorción mineral y la producción de ácidos grasos de cadena corta.

Estos ejemplos reflejan que se están empleando muchos recursos para frenar este problema y buscar soluciones. Pero no hay que olvidar el importante papel que tenemos los consumidores. Cada uno desde su posición, el personal investigador en sus laboratorios, los gobiernos en sus políticas y los consumidores en sus hogares, debemos colaborar para evitar que comida y productos válidos para el consumo sean desaprovechados, mientras en otra parte del mundo se pasa hambre.

* Ana Mª Veses es investigadora del Instituto de Ciencia y Tecnología de Alimentos y Nutrición del CSIC.

¿Cómo funcionan el bitcoin y otras monedas virtuales? La clave es la tecnología blockchain

Por Mar Gulis (CSIC)

Basada en la tecnología blockchain, la moneda virtual bitcoin no cuenta con el respaldo de ningún gobierno  o banco central.

En 2008 alguien que firmaba bajo el seudónimo de Sataoshi Nakamoto creó el bitcoin. La famosa moneda virtual ha sido la punta de lanza de un fenómeno más amplio: la criptoeconomía. Este concepto se refiere a toda la actividad financiera basada en el uso de criptomonedas y tecnología blockchain (cadena de bloques), un sistema descentralizado de recolección de datos en el que la información se agrupa en bloques, es de acceso público y, mediante técnicas criptográficas, solo puede ser editada o alterada modificando toda la cadena de bloques previa.

Los investigadores del CSIC David Arroyo y Luis Hernández, y su colega Jesús Díaz, de IBM,  explican que el éxito de cualquier criptomoneda no reside solo en esta base criptográfica, sino que es necesario que exista un conjunto de usuarios que pongan sus ordenadores al servicio del ecosistema, actuando como nodos activos en la generación de criptomonedas. Así es como funciona la red Bitcoin. Expertos en telecomunicaiones, matemáticas e informática, los tres autores acaban de publicar Blockchain (Editorial CSIC-Los libros de la Catarata), donde explican el significado y alcance de este vocablo. A lo largo del libro cuentan cómo funciona y para qué sirve una tecnología que puede ser clave para transitar a una nueva economía digital y a la denominada web 4.0.

Portada del libro Blockchain, editado por el CSIC y Los Libros de la Catarata.

Como decíamos, blockchain es un sistema descentralizado de recolección de datos que elimina a los intermediarios, los bancos en el caso de Bitcoin, desconcentrando todas las tareas de gestión. Son los usuarios quienes controlan el proceso, como si se tratase de un enorme banco con millones de nodos, de modo que cada uno se convierte en partícipe y gestor de los libros de cuentas de esta peculiar entidad. En ese contexto de aplicación, blockchain sería una especie de libro de contabilidad gigante en el que los registros (bloques) están enlazados y validados criptográficamente para proteger la seguridad de las transacciones. En otras palabras, es una base de datos distribuida (no se almacena en una sola ubicación) y segura que se puede aplicar a todo tipo de transacción, no solo económica.

Precisamente por esta particular estructura, blockchain se está empleando para crear sistemas financieros alternativos, al margen del tradicional control de los bancos centrales. Ejemplos de ello son las plataformas Bitcoin y Etherum, a través de las cuales cualquiera puede registrar transacciones con sus respectivas monedas virtuales, el bitcoin y el ether. Como apuntan los investigadores en su libro, la utilización de este dinero virtual y la tecnología en la que se sustenta –blockchain– ha pasado de cierto rechazo institucional, e incluso mala fama, a representar una oportunidad para nuevos modelos de negocio y actividad financiera, en medio de una ola de entusiasmo hacia la denominada criptoeconomía. El potencial de blockchain es diverso, y pasa por la construcción de sistemas de protección de derechos de autor; la configuración de organizaciones autónomas basadas en ‘contratos inteligentes’ o la gestión del Internet de las cosas, entre otras aplicaciones.

Pero sus múltiples oportunidades conviven con varios puntos débiles: por ejemplo, la no trazabilidad de las criptomonedas, frente al pago tradicional con tarjeta de crédito o mediante transferencia bancaria, dificulta la persecución del lavado de dinero; sus limitaciones en la gestión de la identidad y privacidad de los usuarios; las fluctuaciones en la cotización de las monedas virtuales; la gran cantidad de energía que requieren los modelos de generación de moneda en Bitcoin y Ethereum; el déficit en escalabilidad de la red blockchain de acceso abierto; o ciertos incidentes de seguridad. “En los últimos años podemos hallar errores en la implementación de protocolos criptográficos, robos de credenciales en plataformas digitales, incluso fallas graves de seguridad en dispositivos hardware resistentes a la manipulación”, señalan los autores. Como explica David Arroyo, del Instituto de Tecnologías Físicas y de la Información Leonardo Torres Quevedo (ITEFI-CSIC), “el trabajo teórico que sustenta esta tecnología está aún en fase de desarrollo, y los organismos de estandarización quieren establecer un marco de referencia básico que ofrezca garantías a su utilización”.

Con todo, la obra incide en que blockchain va más allá de posibilitar meros intercambios económico-financieros. Es una herramienta para desarrollar nuevos protocolos que permitan la gestión de todo tipo de datos en esta sociedad de la información.

Matemáticas para hacer más seguro el coche autónomo

Por Mar Gulis y Ágata Timón (CSIC)*

El coche autónomo ya es una realidad. Las principales compañías de automóviles tienen previsto lanzar comercialmente sus prototipos entre 2020 y 2021, pero ¿está la sociedad preparada para este salto cualitativo? Entre los retos científicos y tecnológicos que supone la conducción automática en un entorno complejo e imprevisible, la comunidad investigadora se tiene que enfrentar a cuestiones como analizar los riesgos de este nuevo tipo de conducción, diseñar la comunicación entre la máquina y el humano, o estudiar el impacto que tendrá en la economía y en ciertos sectores industriales. De todo esto se ocupa el proyecto Trustonomy. Building Acceptance and Trust in Autonomous Mobility, financiado por la Unión Europea. Su objetivo principal es crear aceptación y confianza en la movilidad autónoma.

El proyecto, en el que participa el investigador del Instituto de Ciencias Matemáticas (ICMAT) del CSIC David Ríos, propondrá mejoras en los algoritmos que dirigen la conducción autónoma. Estos identifican la posición y el estado del coche y de todos los agentes que están a su alrededor, predicen su evolución en el tiempo y toman decisiones, minimizando los riesgos. “El coche ejecuta elecciones sencillas: frenar, acelerar o cambiar su dirección, pero tiene que evaluar las consecuencias de esas decisiones”, explica Ríos. Su misión es producir modelos de análisis de riesgos que permitan predecir y responder ante los peligros específicos vinculados a esta forma de movilidad emergente.

¿Cómo nos relacionamos con un vehículo autónomo?

También es indispensable prestar atención a la interacción entre el conductor y el vehículo. Siguiendo la clasificación más común, los coches autónomos se diferencian en seis categorías, del 0 al 5: los vehículos del nivel 0 dependen totalmente del conductor, y en el nivel 5 supone la conducción plenamente autónoma sin intervención humana. Hasta el momento los coches más avanzados han conseguido alcanzar el nivel 4, en el que solo se requiere la conducción humana en casos de falta de visibilidad o fallo del sistema, por lo que el papel humano seguirá siendo determinante en el transporte.

“Las últimas muertes provocadas por coches autónomos han sido causadas porque los humanos que los supervisaban no estaban prestando atención”, afirma Ríos. Para evitar estas situaciones, el coche debe ser capaz de comunicarse de forma efectiva con el conductor, saber cuál es su grado de atención (mediante cámaras y sensores) y lanzar advertencias cuando se requiera. Además, durante un tiempo coexistirán en la carretera los vehículos totalmente autónomos, los semiautónomos y los no autónomos. Esto presentará nuevos riesgos en la conducción, que también deberán ser analizados.

Otro problema importante es el de la ciberseguridad. “Un coche autónomo funciona a través de un sistema informático, y puede ser atacado, por ejemplo, por medio del reconocimiento de imágenes. Modificando unos pocos píxeles de una imagen, se puede identificar un obstáculo de manera errónea y, como consecuencia, frenar o acelerar cuando no corresponde. Es un riesgo grave”, explica el investigador.

Para analizar todos estos riesgos se desarrollarán modelos de aprendizaje automático, basados principalmente en estadística bayesiana y teoría de juegos. El catálogo resultante será útil para rediseñar las pólizas de seguro y revisar las regulaciones de seguridad vial, pero también servirá para estudiar los procesos éticos de toma de decisiones y los métodos de verificación en caso de accidentes o ambigüedad.

El proyecto, que cuenta con 3,9 millones de euros del programa H2020 de la Unión Europea, se desarrollará hasta el 30 de abril de 2022. En él participan, además del ICMAT, otras 15 organizaciones de diferentes países europeos.

 

*Ágata Timón trabaja en el Instituto de Ciencias Matemáticas (ICMAT), centro de investigación mixto del CSIC y tres universidades madrileñas: la Universidad Autónoma de Madrid (UAM), la Universidad Carlos III de Madrid (UC3M), y la Universidad Complutense de Madrid (UCM).

¿Qué son las “enzimas promiscuas”?

Por Francisco J. Plou (CSIC)*

Las enzimas son catalizadores biológicos, o biocatalizadores, responsables de regular y acelerar de forma sustancial la velocidad de las reacciones químicas en los seres vivos. Trabajos de los químicos estadounidenses Sumner y Northrop (ambos compartieron Premio Nobel de Química en 1946, junto con Stanley) permitieron determinar que las enzimas eran proteínas. Por tanto, al igual que estas últimas, las enzimas están formadas por aminoácidos y juegan un papel crucial en casi todos los procesos biológicos. El potencial químico de un ser vivo queda definido por su información genética, y las enzimas son las entidades biológicas que convierten dicha información en acción. Dicho de otro modo, las enzimas son proteínas que incrementan la velocidad de una reacción química sin consumirse y recuperándose sin cambios esenciales. Así, las enzimas son muy eficaces y específicas, ya que cada una está especializada en procesar una reacción concreta.

En esta imagen de microscopía electrónica de barrido se pueden observar tres enzimas distintas formando complejos cristalinos con fosfato de cobre. Los complejos de proteína y sal crecen formando estructuras semejantes a algunas flores. / David Talens Perales (IATA-CSIC). FOTCIENCIA16

En esta imagen de microscopía electrónica de barrido se pueden observar tres enzimas distintas formando complejos cristalinos con fosfato de cobre. Los complejos de proteína y sal crecen creando estructuras semejantes a algunas flores. / David Talens Perales (IATA-CSIC). FOTCIENCIA16

En los últimos años, un nuevo concepto, que se contrapone a esta especificidad de las enzimas, ha adquirido un notable protagonismo: la promiscuidad. Este término nos puede evocar a relaciones poco estables o “de flor en flor” entre personas, pero también se ha he­cho un hueco en el ámbito de la bioquímica, si bien suele utilizarse en su lugar el concepto más académico de “amplia especificidad”. En el metabolis­mo cada enzima se ha especializado, a través de la evolución, en una determinada reacción química, para lo que es necesa­rio que la enzima reconozca un sustrato muy concreto. Este es el caso de la glucosa oxidasa, una enzima que solo reconoce a la glucosa y se muestra indiferente con azúcares muy similares como la galactosa o la fructosa. Por ello tiene múltiples aplicaciones en biotecnología, entre las que destaca el poder cuantificar la glucosa libre en los fluidos biológicos (sangre y orina), base de los biosensores de las personas diabéticas. Sin embargo, cada año se publican nuevos artículos en los que se reseña cómo una enzima es capaz de aceptar sustratos alternativos al original (lo que se denomina “promiscuidad de sustrato”) o, lo que resulta mucho más rompedor, catali­zar otro tipo de transformaciones químicas (lo que se conoce como “promiscuidad catalítica”). La mayoría de enzimas, entonces, son promiscuas.

¿De dónde proviene esta propiedad? Se cree que las enzimas actuales han evolucionado a partir de enzimas ancestrales que mostraban una gran promiscuidad, esto es, las primeras enzimas eran generalistas y realizaban por tanto funciones muy diversas. Así, las células no podían gastar energía en producir enzimas especializadas y preferían en­zimas multifunción, como esos sacacorchos que, además de permitirnos abrir una botella de vino, incluyen una pequeña navaja y un sinfín de accesorios. Pero con el tiempo fue nece­sario dotar a las enzimas de mayor actividad catalítica y espe­cificidad, como laboriosa “mano de obra” cada vez más especializada y eficaz. Parece ser una consecuencia evidente de la divergencia evolutiva.

Estos conceptos chocan de frente con los descritos en uno de los libros más vendidos sobre estas cuestiones en los últimos años, La enzi­ma prodigiosa, del médico Hiromi Shinya. El autor señala, con poca base científica, que en nuestro organismo “hay una enzima madre, una enzima prototipo, sin especialización. Hasta que esta enzima madre se convierte en una enzima específica como respuesta a una necesidad particular, tiene el potencial de convertirse en cual­quier enzima”.

La Mata Hari de las enzimas

Pero sigamos con nuestras enzimas promiscuas. Desde el punto de vista aplicado, la promiscuidad de sustrato presenta connotaciones de gran interés. Por un lado, para ciertos usos es deseable que las enzimas sean poco es­pecíficas. Nos referimos, por ejemplo, a su empleo en deter­gentes, donde una lipasa debe atacar cuantos más tipos de manchas de grasa, mejor, o a su utilización en descontaminación, en la que una oxidorreductasa es preferible que oxide el mayor número posible de compuestos recalcitrantes.

En cuanto a la promiscuidad catalítica, que implica que una misma enzima es funcional en reacciones que pertenecen a varias de las seis clases descritas en el cuadro de la imagen (tabla 1), es notorio el caso de la lipasa B de la levadura Candida an­tarctica. Esta enzima, a la que podríamos denominar la Mata Hari de la enzimología, se ha convertido en uno de los bio­catalizadores con mayores aplicaciones industriales. Por citar algunas: cataliza reaccio­nes diversas que incluyen la hidrólisis e interesterificación de grasas, la obtención de poliésteres, la síntesis de amidas, reso­luciones racémicas, condensaciones aldólicas, epoxidaciones y la reacción de Mannich, que se usa por ejemplo para sintetizar fármacos, entre otras cosas. Como señalan algunos científicos, “es el momento de investigar nuevas re­acciones para viejas enzimas”. Con ello aumentarán las posibilidades catalizadoras de las enzimas.

 

* Francisco J. Plou es investigador en el Instituto de Catálisis y Petroleoquímica del CSIC y autor del libro ‘Las enzimas’ (Editorial CSIC  Los Libros de la Catarata).

Si los muros del Metro hablaran… ¿Qué nos dicen los azulejos de una ‘estación fantasma’?

Por Elena Mercedes Pérez Monserrat y Mar Gulis (CSIC)*

El Metro de Madrid cumple 100 años en 2019. Esta red de Metro, que hoy es una de las mejores del mundo y cuenta con 302 estaciones a lo largo de 294 kilómetros de recorrido, fue inaugurada en 1919 por el rey Alfonso XIII con una sola línea Norte-Sur que iba desde Puerta del Sol a Cuatro Caminos (el germen de la que hoy se denomina Línea 1), con un total de 8 estaciones y que no llegaba a cubrir 3,5 kilómetros.

En los años 60 del siglo XX, cuando la compañía Metropolitano decidió alargar los trenes, se reformaron las estaciones para que los andenes pasaran de tener 60 a 90 metros. Pero hubo una estación en la que, por su situación en curva y por la cercanía a las paradas colindantes, no se pudo acometer esta reforma y acabó siendo clausurada por el Ministerio de Obras Públicas: la estación de Chamberí.

 

La icónica decoración de las estaciones del Metro de Madrid, incluidos vestíbulos, andenes o bocas de acceso, fue diseño del arquitecto Antonio Palacios. / Laura Llera

La icónica decoración de las estaciones del Metro de Madrid, incluidos vestíbulos, andenes o bocas de acceso, fue diseño del arquitecto Antonio Palacios. / Laura Llera

Tras más de 40 años cerrada y siendo objeto de curiosidades varias, la estación de Chamberí, después de una importante actuación de limpieza, restauración y conservación, fue reabierta en 2008 como centro de interpretación visitable del Metro de Madrid. Durante esas décadas en las que la “estación fantasma” permaneció cerrada al público, los accesos exteriores fueron vallados, hecho que permitió que se conservaran muchos de los objetos cotidianos de la época, como carteles publicitarios, tornos, papeleras… así como las cerámicas que recubrían toda la estación. Es decir, lo excepcional del lugar es que se trata de la única estación del Metropolitano que conserva su estado original casi en su práctica totalidad.

Luz y color para el Metropolitano de Madrid

En 1913 los ingenieros Carlos Mendoza (1872-1950), Miguel Otamendi (1878-1958) y Antonio González Echarte (1864-1942) presentaban un proyecto de red de metro para la ciudad de Madrid. El arquitecto Antonio Palacios (1874-1945) fue el encargado de diseñar las estaciones, los accesos y los edificios del proyecto. Se buscaba integrar el uso de materiales tradicionales en un entorno tecnológico completamente nuevo, dando un resultado muy decorativo de marcado estilo español. Con la aplicación de azulejería en el suburbano se pretendía proporcionar luminosidad y color a unos nuevos espacios -bajo tierra- que iban a ser utilizados por personas acostumbradas a la luz natural. La rica variedad de cerámicas de las diversas regiones españolas facilitó poner en práctica este empeño.

Estado actual de la estación de Metro de Chamberí (Madrid), alicatada con azulejos blancos y decorada con piezas coloreadas y/o con reflejo metálico. / Laura Llera

Estado actual de la estación de Metro de Chamberí (Madrid), alicatada con azulejos blancos y decorada con piezas coloreadas y/o con reflejo metálico. / Laura Llera

En Madrid, la cerámica vidriada aplicada a la arquitectura tuvo su máximo apogeo a finales del siglo XIX y principios del XX. Entonces, la azulejería publicitaria -especialmente en las estaciones del Metropolitano- y la urbana cobraron un especial significado. Este material favoreció el auge de las industrias cerámicas de los principales centros productores. Así, en la arquitectura madrileña de principios del siglo XX la cerámica vidriada desempeñaba un papel esencial desde la concepción inicial de los proyectos; y cabe resaltar la apuesta por seleccionar materias primas nacionales para su elaboración. En cuanto a las piezas de reposición que se han elaborado recientemente para las labores de restauración, se han respetado los aspectos formales de las originales, pero utilizando materiales y tecnologías que incrementan su resistencia.

El uso de la cerámica vidriada respondía también al apogeo en la época de la publicidad alicatada, así como a las condiciones de buena conservación y fácil limpieza que presenta la azulejería. Tras la Guerra Civil española (1936-1939) la publicidad en cerámica de la estación fue cubierta por tela y papel, que protegieron las cerámicas.

Qué nos dice el análisis científico de las cerámicas vidriadas de Chamberí

Un estudio multidisciplinar coordinado por personal investigador del Instituto de Geociencias (CSIC/UCM) ha permitido conocer las materias primas y las tecnologías de fabricación de unas cerámicas vidriadas extraordinarias, especialmente elaboradas para este emplazamiento excepcional: la estación de Metro de Chamberí (Madrid). El conocimiento adquirido pretende apostar por la conservación y puesta en valor de estos materiales, tanto de las piezas originales como de las de reposición.

Conforme a la función que desempeñan en la estación, las piezas estudiadas se agrupan en:

  • Azulejos blancos y lisos, que revisten la práctica totalidad de los paramentos y desempeñan una función esencialmente práctica, al otorgar luminosidad y resultar de fácil limpieza.
  • Piezas con reflejo metálico y superficies adornadas, con un carácter marcadamente decorativo, resaltando los encuentros de los planos y el enmarcado de la publicidad alicatada en los andenes.
Piezas originales. Perspectivas: a simple vista, imágenes de microscopia óptica de polarización (vidriados y soporte cerámico) y electrónica de barrido (soportes cerámicos). Superior: azulejos blancos. Inferior: piezas decorativas con reflejo metálico

Piezas originales. Arriba: azulejos blancos, elaborados en Onda (Castellón). Abajo: piezas con reflejo metálico, elaboradas en Triana (Sevilla). Perspectivas: a simple vista, imágenes de microscopia óptica de polarización (vidriados y soporte cerámico) y electrónica de barrido (soportes cerámicos).

Los azulejos blancos originales fueron fabricados en Onda (Castellón) a partir de mezclas arcillosas muy ricas en carbonatos y cocidas a unos 950 ºC. Presentan un vidriado plúmbico alcalino cuya opacidad es en gran parte otorgada por partículas ricas en plomo y arsénico. Las piezas originales de carácter decorativo -con reflejo metálico- fueron elaboradas en Triana (Sevilla) a partir de arcillas illíticas calcáreas y cocidas entre 850-950 ºC. Se cubrieron con vidriados plúmbicos transparentes, con la adición de cobre y estaño.

Piezas de reposición. Perspectivas: a simple vista, imágenes de microscopia óptica de polarización (vidriados y soporte cerámico) y electrónica de barrido (soportes cerámicos). Superior: azulejos blancos. Inferior: piezas decorativas con reflejo metálico

Piezas de reposición, elaboradas en Madrid. Arriba: azulejos blancos. Abajo: piezas con reflejo metálico. Perspectivas: a simple vista, imágenes de microscopia óptica de polarización (vidriados y soporte cerámico) y electrónica de barrido (soportes cerámicos).

Las piezas de reposición se elaboraron según el aspecto de las originales y se apostó por la utilización de materiales y técnicas que otorgaran especial resistencia a las piezas. Se fabricaron en Madrid con materias primas principalmente procedentes de Barcelona, Castellón y Teruel. Las blancas, a partir de arcillas illítico-caoliníticas y calcáreas ricas en cuarzo cocidas a >950 ºC, aplicando un vidriado alcalino muy rico en zircona y alúmina. Las nuevas piezas con reflejo se elaboraron a partir de arcillas illítico-caoliníticas muy alumínicas cocidas a <850 ºC y con la importante adición de una chamota especialmente refractaria, cubriéndose con un vidriado plúmbico-potásico rico en alúmina.

 

* Este proyecto de investigación ha sido realizado por un equipo multidisciplinar del Instituto de Geociencias (CSIC/UCM), la Universidad de Granada, el Museo Nacional de Ciencias Naturales (CSIC) y la Universidad Nacional de Educación a Distancia. Puedes leer el artículo completo aquí.

Blockchain, tierras raras, aceleradores de partículas… El CSIC lleva la actualidad científica a la Feria del Libro

Por Mar Gulis (CSIC)

¿Sabes cómo funcionan el bitcoin y otras criptomonedas? Si quieres algunas pistas, el martes 11 de junio en la Feria del Libro de Madrid David Arroyo, Jesús Díaz y Luis Hernández presentarán su libro Blockchain. Los autores explicarán al público los entresijos de esta tecnología y sus aplicaciones en la denominada criptoeconomía.

Como cada año, investigadores e investigadoras del CSIC acudirán a esta emblemática cita para dar a conocer los últimos libros publicados en las colecciones ‘¿Qué sabemos de?’ y ‘Divulgación’ (CSIC-Catarata), que acercan la ciencia al público general. El mismo día 11, además de criptoeconomía, se hablará del futuro de la óptica; el LHC, el mayor acelerador de partículas del mundo; y las tierras raras, 17 elementos químicos omnipresentes en las sociedades tecnológicamente avanzadas y, sin embargo, poco conocidos.

El 12 de junio, la investigadora Pilar Ruiz Lapuente se ocupará de la energía oscura, del posible final “frío y estéril” del cosmos y de otras cuestiones relacionadas con la astrofísica que aborda en su libro La aceleración del universo. En la misma jornada tendrán cabida temas como la tabla periódica de los elementos químicos, el albinismo y otras mutaciones genéticas o el papel de las áreas protegidas en la sostenibilidad ambiental.

En total, el CSIC y la editorial Los Libros de la Catarata, presentarán ocho obras de divulgación a través de las intervenciones de sus propios autores.

Estas son las coordenadas

Las presentaciones se realizarán los días 11 y 12 de junio, a partir de las 12:30 horas, en el Pabellón Bankia de Actividades Culturales, situado en las proximidades de los jardines de Cecilio Rodríguez del parque de El Retiro. De acceso libre, estas citas son una oportunidad para escuchar y plantear preguntas a los protagonistas de la ciencia.

Quienes busquen actividades para público más joven, el sábado 8 de junio tienen además una cita en el Pabellón infantil. Allí, investigadores del CSIC que han participado en la obra Descubriendo la luz. Experimentos divertidos de óptica realizarán demostraciones para niños y niñas. Las sesiones, de entrada libre y una duración de 15 minutos, se prolongarán desde las 12:30 hasta las 15:00 horas.

Y si la prioridad es llevarte tu libro con dedicatoria incluida, pásate por la caseta del CSIC (número 19) o la de Los Libros de la Catarata (número 336). Durante toda la feria, los autores de las novedades editoriales estarán en firmando ejemplares.

La información de las firmas se puede consultar aquí.

De la investigación a tu casa: ¿cómo controlar el gas radón?

Por Borja Frutos Vázquez* y Mar Gulis (CSIC)

Llega el día en el que por fin decides mudarte a otra vivienda. Has escogido una bonita casa ubicada en la sierra, alejada de la gran ciudad, el tráfico, el bullicio y la contaminación. La situación te parece idílica y vives con ilusión el cambio hasta que un día, hablando con tus nuevos vecinos, descubres que vivir en ella te podría acarrear serios problemas de salud. Te informas y descubres que la mayoría de las casas construidas en esa zona tienen, en su interior, concentraciones de un gas que es considerado cancerígeno y que este se adentra en la vivienda de manera natural a través del suelo… ¿verdad que la situación ha empeorado bastante?

Esto nos podría suceder a cualquiera que decidamos ir a vivir a alguna de las zonas consideradas de potencial riesgo por presencia de radón según los mapas publicados por el Consejo de Seguridad Nuclear (CSN). Esta cartografía representa, para todo el territorio nacional, los posibles niveles de presencia de gas radón según tres categorías.

Mapa de exposición potencial al radón elaborado por el CSN que muestra las tres zonas de riesgo, siendo la categoría 2 (color naranja) la de máximo riesgo

Pero tratemos de conocer mejor este gas, cómo puede estar presente en nuestros hogares y cómo podría afectar a nuestra salud.

El isótopo del radón Rn-222 aparece en la naturaleza como producto de la desintegración natural del radio-226, común en la corteza terrestre. La cantidad de este gas que puede exhalar viene definida, por un lado, por el contenido de radio del sustrato (por ejemplo, los graníticos), y por otro, por la permeabilidad del mismo, que facilita la movilidad a través de los poros. El radón, como elemento gaseoso, posee una alta movilidad y puede penetrar en los edificios a través de fisuras o grietas o por la propia permeabilidad de los materiales que estén en contacto con el terreno. Así, puede entrar fácilmente en el interior de la vivienda, atravesando los forjados, soleras y muros.

Caminos de mayor entrada de gas radón, que suelen coincidir con los puntos débiles de estanquidad de la envolvente en contacto con el terreno, fisuras, juntas, cámara de aire, chimeneas, conductos de saneamiento o materiales de cerramiento/ Elaboración propia

La acumulación de este gas en los recintos cerrados puede elevar las concentraciones y constituir un riesgo para la salud de las personas que lo inhalen. La OMS advierte de sus efectos, situándolo como agente cancerígeno de grado uno (es decir, probado), y alerta de que se trata de la segunda causa de cáncer de pulmón, detrás del tabaquismo. En otros documentos, como los publicados por la Agencia Estadounidense para la Protección Ambiental (EPA), se ofrecen datos de muertes asociadas a la inhalación de gas radón del mismo orden que las atribuidas a los accidentes de tráfico.

Dada la gravedad de la problemática y a partir de la percepción del riesgo derivada de estudios médicos epidemiológicos, algunos países han establecido unos niveles de concentración de radón de referencia, por encima de los cuales se recomienda, o se obliga según el caso, a una intervención arquitectónica para reducir los niveles. La concentración de este gas se expresa en bequerelios (número de desintegraciones subatómicas por segundo) por metro cúbico de aire y los valores límite que se están manejando a nivel internacional oscilan entre 100 y 300 Bq/m3, publicados en documentos de la OMS, la EPA o la Comisión Europea, mediante la Directiva 2013/59/EURATOM. Sobrepasados los niveles citados, resulta necesario realizar actuaciones correctoras para reducir las concentraciones.

¿Cómo se puede actuar frente al radón en las viviendas?

El CSN ha publicado una guía sobre las diferentes técnicas que se pueden emplear. Estas actuaciones se pueden clasificar en tres categorías. Ordenadas de mayor a menor eficacia, serían las siguientes:

  • Técnicas de despresurización del terreno. Se centran en drenar el gas contaminado en el terreno mediante redes o puntos de captación insertados en el subsuelo con conexión al ambiente exterior. Suelen usarse equipos de extracción para mejorar el rendimiento y radio de acción. Es una técnica de alta eficacia, aunque requiere de técnicos especializados.
  • Técnicas de barreras frente al radón. Se basan en la instalación de barreras estancas frente al paso del gas en todo elemento constructivo que separe el edificio del terreno. La colocación idónea es bajo la solera y por el exterior de los muros de sótano, por lo que suele usarse en proyectos en fase de ejecución y no en viviendas existentes.
  • Técnicas de ventilación. Mediante el intercambio de aire con el exterior se consigue reducir la concentración por dilución. Esta técnica puede requerir altas tasas de intercambio de aire que en muchos de los casos puede perjudicar la eficiencia energética por pérdidas de confort térmico. Se aconseja para situaciones de concentración baja o moderada.

Desde la identificación del radón como agente cancerígeno se ha incrementado el interés por el desarrollo de técnicas de protección. Durante las últimas dos décadas, se han venido probando soluciones y estudiando sus efectividades. En nuestro país, hace ya tiempo que se llevan a cabo estudios relacionados con la medida del gas, las concentraciones, los mecanismos de transporte o los efectos sobre la salud. Sin embargo, la investigación sobre las técnicas de protección y las experiencias de aplicación son aún escasas. En esta línea, en el Instituto de Ciencias de la Construcción Eduardo Torroja del CSIC se están desarrollando, en la actualidad, dos proyectos con el objetivo de controlar con mayor precisión la eficacia y optimizar el diseño de técnicas de protección. En concreto, el proyecto RADONCERO, busca obtener datos de optimización de los sistemas de protección frente a la entrada de gas radón en edificios para desarrollar una metodología de intervención que tenga en cuenta la diversidad de terrenos, las tipologías edificatorias más comunes en España y el uso que se les vaya a dar.

Para ello, en primer lugar, se evalúa la penetración de radón en edificios existentes analizando varias tipologías de terrenos y técnicas constructivas. En segundo lugar, se estudian los sistemas de protección como las barreras y los basados en extracciones de gas y ventilaciones (mediante el uso de herramientas informáticas que permiten simular procesos de movimiento del gas en todo el recorrido, desde el terreno hasta el interior del edificio). La última fase del proyecto consiste en la intervención en los edificios previamente analizados, aplicando el método resultante de los estudios de simulación antes citados y el método que ha sido propuesto para la protección frente al radón.

Dado que, a pesar de su importancia, aún no existe una reglamentación específica al respecto en nuestro país, los resultados de este proyecto constituyen una referencia técnica para el documento básico de protección frente al gas radón que se encuentra en la actualidad en fase de desarrollo en el ámbito del Código Técnico de la Edificación.


* Borja Frutos Vázquez es investigador del Instituto de Ciencias de la Construcción Eduardo Torroja (IETcc), del CSIC y lidera el proyecto RADONCERO.