Entradas etiquetadas como ‘CSIC Divulga’

Bacterias, arañas, polillas: conoce a tus inseparables compañeros de piso

Por Mar Gulis (CSIC)

Si piensas que en tu casa solo vives tú o, como mucho, otras personas, te equivocas. Tu hogar está lleno de vida: multitud de especies, más o menos pequeñas o más o menos inofensivas, pueblan todos sus rincones, desde el recibidor a la cocina.

Hay compañía doméstica desde el momento en que pisas el domicilio, ya que en una suela de zapato suele haber unas 400.000 colonias de bacterias e incluso, a veces, pequeños artrópodos; seres a los que acabas de abrir la puerta de casa y, parte de los cuales, se instalarán en ella. Por esta razón, en algunas culturas se exige descalzarse para entrar en las viviendas, una costumbre cada vez más extendida por estos lares.

Este es solo uno de los datos que incluye Biodiversidad doméstica. Compañeros de piso, una exposición itinerante elaborada por el Museo Nacional de Ciencias Naturales del CSIC. La muestra realiza un recorrido por las distintas estancias de una casa y va arrojando datos sobre los seres vivos que podemos encontrar en cada una de ellas.

Cartel de la exposición Biodiversidad doméstica. Compañeros de piso

Supongamos que después de entrar a casa vamos al baño. Al contrario de lo que podría parecer, allí encontraremos más bacterias en el suelo que en la taza del retrete. Las especies más habituales en el primero serán las Rhodobacterias y las Rhizobacterias, mientras que las de los sanitarios serán del tipo Clostridium, relacionadas con el sistema digestivo.

En esta estancia probablemente también hallemos bacterias relacionadas con la piel, como Staphyloccocus y Streptococcus, y especies más grandes en tamaño pero totalmente inofensivas. Es el caso del pececillo de plata, que se pasea por suelos y rendijas, y los opiliones, animales parecidos a las arañas pero con patas extremadamente largas que deambulan por nuestra bañera o plato de ducha. ¿Hablamos del cepillo de dientes? De momento, quedémonos con la idea de que es mejor no compartirlo con otras personas.

Opilion, especie que frecuenta los baños

 

Ácaros durmientes

Vayamos ahora al dormitorio, a echar una pequeña siesta por ejemplo. En la cama nos esperará un nutrido cortejo de bacterias Streptococcus mutans y el rey de los colchones: el conocido ácaro del polvo (Dermatophagoides pteronyssinus), que suele estar presente también en otros elementos de la casa, como moquetas y sofás. Cuando nos durmamos, otra familia de ácaros se paseará por nuestra cara: se trata de Demodex folliculorum, un ser vivo con la fea costumbre de vivir dentro de nuestros folículos pilosos –justo por encima de la raíz del cabello– y salir al exterior durante estos periodos de reposo en los que nos encontramos en los brazos de Morfeo.

Demodex folliculorum saliendo del folículo piloso/Sciencephotolibrary

Pero la estancia con más vida de nuestro hogar es la cocina. Los suculentos restos de comida que permanecen allí por más que limpiemos son un fuerte atractivo para gran cantidad de especies. En el estropajo, por ejemplo, podemos encontrar hasta 20 familias diferentes de bacterias y en otras partes no nos sorprenderá ver organismos más grandes como hormigas, moscas y cucarachas. Las primeras no son peligrosas, pero no podemos decir lo mismo del resto. De hecho, las cucarachas, de las que existen en el mundo 3.500 especies, son uno de los organismos más resistentes que se conocen. Además pueden propagar enfermedades como la disentería o el cólera.

Otro organismo típico de la cocina con el que debemos tener cuidado es el moho, cuyas esporas se dispersan por el aire y pueden provocar reacciones alérgicas y problemas respiratorios, así como llegar a producir sustancias cancerígenas (como la aflatoxina).

 

El objeto más sucio de nuestro hogar

Tampoco estaremos solos o solas en el salón. Allí hay dos objetos que reúnen un gran número de especies: el mando a distancia y el teléfono. Numerosos estudios han puesto de manifiesto que el control remoto de la televisión es uno de los objetos más sucios de un hogar, un hotel o un hospital. Entre otras cosas, sobre él podemos encontrar restos de orina, de otros fluidos humanos y hasta de heces, todos ellos asociados a gran cantidad de bacterias y virus. Parece que eso de lavarse las manos después de visitar el baño no es una práctica tan habitual.

Estos son algunos ejemplos de la biodiversidad de nuestros hogares, pero no podemos olvidarnos de otros como las polillas, cuyas larvas se alimentan de nuestras prendas de ropa; los piojos, que pueden habitar en nuestros cabellos y de los que existen tres tipos de especies según prefieran vivir en nuestra cabeza, cuerpo o pubis; o las arañas, que a pesar del miedo que suscitan a algunas personas, pueden resultar beneficiosas porque se alimentan de otros insectos que sí serían nocivos o molestos.

No hay que asustarse, la mayoría de estas especies son inocuas y llevamos mucho tiempo conviviendo con ellas. Pero no viene mal tener buenos hábitos de higiene personal y una adecuada limpieza en las diferentes estancias de nuestro hogar. ¡Ah!, y si tienes pensado alojarte en algún hotel en tus próximas vacaciones, tal vez sea mejor disfrutar del entorno que coger ese mando a distancia que reposa sobre la mesa para ver la televisión.

 

La exposición Biodiversidad doméstica. Compañeros de piso es una idea original del Museo Nacional de Ciencias Naturales (MNCN) del CSIC y esta comisariada por A. Valdecasas, investigador del MNCN.

Radio cognitiva, la tecnología que hará más eficientes nuestros móviles

José M. de la Rosa (CSIC)*

Nos encontramos en los albores de la mayor revolución tecnológica que ha conocido la humanidad. Las primeras décadas del siglo XXI serán recordadas por la expansión de las tecnologías de la información y las comunicaciones (TIC) y de dispositivos como los teléfonos móviles, las tablets y los ordenadores personales. Gracias a ellos podemos acceder a la información a través de internet de una forma ubicua y con velocidades de conexión cada vez mayores.

Este desarrollo sin precedentes se debe en gran medida a la microelectrónica y los chips. Estos microingenios han evolucionado en los últimos 50 años de manera exponencial según la ley de Moore, y contienen miles de componentes en unos pocos nanómetros. Una de las consecuencias de este escalado es la integración de la microelectrónica en objetos de uso cotidiano, que ha dado lugar al denominado Internet de las cosas, IoT por sus siglas en inglés.

La computación neuronal artificial ya se ha comenzado a utilizar en algunos dispositivos comerciales

IoT comprende la interconexión de miles de millones de entidades ciberfísicas con una estructura híbrida software/hardware capaces de comunicarse entre ellas sin necesidad de intervención humana. La educación a través de plataformas de enseñanza virtual, la teleasistencia sanitaria personalizada, las operaciones bursátiles automatizadas, las redes energéticas inteligentes, la robotización en procesos industriales y redes de transporte, o los vehículos autónomos, son solo algunos ejemplos del sinfín de aplicaciones de IoT, cada vez más presente en nuestras vidas.

Para una implementación adecuada del Internet de las cosas se requiere el desarrollo de dispositivos electrónicos seguros y eficientes, tanto en coste como en consumo de energía. Tales dispositivos deben estar dotados de una cierta inteligencia y autonomía para poder tomar decisiones en tiempo real y ser robustos frente a las condiciones del medio en que se van a desenvolver. Y para que esto ocurra es necesario desarrollar tecnologías que hagan viable la construcción de un puente sólido entre el medio físico (real) y su versión virtualizada (digital).

Del 1G al 5G

Microfotografía de un chip del Instituto de Microelectrónica de Sevilla/ IMSE (CSIC-US)

Una de esas tecnologías para ‘construir puentes’ son las comunicaciones móviles. Hace poco más de un par de décadas, los terminales móviles eran simplemente teléfonos inalámbricos, cuya única funcionalidad era la transmisión de voz (primera generación o 1G), a la que se añadió posteriormente la transmisión de SMS en la segunda generación (2G), con velocidades de transmisión de unos pocos de kilobits por segundo. Con el desarrollo del 3G, los móviles pasaron a ofrecer servicios multimedia y conexión a internet de banda ancha con velocidades de acceso de varios Megabits/s (Mb/s). En la actualidad, la mayoría de las redes operan con terminales móviles de cuarta generación (4G), que permiten alcanzar velocidades de hasta centenares de Mb/s, y ya se empieza a implantar la red 5G, con velocidades de Gigabits/s (Gb/s).

Sin embargo, las comunicaciones móviles tienen un problema: las bandas del espectro electromagnético por donde se propagan las ondas radioeléctricas con la información transmitida por muchos aparatos electrónicos se pueden saturar y convertirse en un cuello de botella para la implementación práctica de IoT. Esto ha motivado la investigación y desarrollo de tecnologías para hacer un uso más eficiente y sostenible del espectro electromagnético. Una de ellas es la denominada radio cognitiva o CR por sus siglas en inglés.

En esencia, la radio cognitiva se basa en la convergencia de tecnologías de comunicación y de computación que permiten ajustar de forma autónoma y transparente para el usuario los parámetros de transmisión y recepción de los dispositivos electrónicos en función de la información que detectan del entorno radioeléctrico donde se utilizan. Para ello, dichos dispositivos han de incluir sistemas de comunicaciones en los que la digitalización (transformación digital de las señales que portan la información) se realice lo más cerca posible de la antena (tanto en el receptor como en el transmisor). Así, el procesamiento de la información se hace mediante software y puede ejecutarse en un microprocesador digital. Esto aumenta significativamente el grado de programabilidad y adaptabilidad de los terminales móviles a diferentes modos o estándares de comunicación.

Inteligencia artificial en nuestros móviles

Además de un sistema de comunicación basado en software, la radio cognitiva requiere del uso de algoritmos de inteligencia artificial (IA) para identificar de forma automática la banda óptima del espectro electromagnético en la que se pueda transmitir mejor la información. Con la inteligencia artificial se maximiza la cobertura, se minimiza el efecto de las interferencias y se incrementa la durabilidad y la vida útil de la batería, entre otras muchas ventajas.

Sin embargo, los microprocesadores empleados en dispositivos convencionales resultan ineficientes para realizar las tareas de inteligencia artificial requeridas en sistemas de radio cognitiva. Al llevarlas a cabo, estos dispositivos consumen mucha energía y reducen la durabilidad de la batería. Esto ha motivado la investigación de alternativas como los procesadores neuromórficos, los cuales realizan el tratamiento de la información inspirándose en el cerebro humano.

Esquema de funcionamiento de un procesador neuromórfico/ José M. de la Rosa

Hay tareas computacionales, como el cálculo, en las que los procesadores convencionales son más eficientes que el cerebro, pero otras, como el reconocimiento de patrones, son ejecutadas mejor por los sistemas neuronales. Es lo que ocurre, por ejemplo, en el reconocimiento facial, que el ojo y el cerebro humanos realizan de forma mucho más eficaz en términos de velocidad, precisión y consumo energético. En el caso de la radio cognitiva, los procesadores neuromórficos deben encargarse de reconocer patrones de señales radioeléctricas, que son las que transmiten la información en la telefonía móvil.

De hecho, la computación neuronal artificial ya se ha comenzado a utilizar en algunos dispositivos comerciales. Por ejemplo, la compañía Apple incorpora módulos neuronales de aprendizaje automático (o Machine learning) en sus procesadores más recientes incluidos en los últimos modelos de iPhone. Estos dispositivos contienen 8.500 millones de transistores integrados en una tecnología de 7 nanómetros. Otras compañías como Intel y Qualcom han desarrollado procesadores neuromórficos fabricados también en tecnologías nanométricas.

Aunque aún se está lejos de desarrollar ordenadores completamente basados en procesamiento neuronal, hay un interés creciente por integrar la inteligencia artificial en el hardware de los dispositivos. Esta es una de las líneas de investigación en las que se trabaja en el Instituto de Microelectrónica de Sevilla (CSIC-US). En un futuro, se espera poder incorporar procesamiento neuromórfico en chips de comunicaciones que hagan posible la realización de dispositivos IoT/5G más eficientes gracias al uso de la radio cognitiva.

*José M. de la Rosa es investigador del Instituto de Microelectrónica de Sevilla, centro mixto del CSIC y la Universidad de Sevilla.

¡Sabandija! Humanos y animales unidos por la metáfora

Por Mar Gulis (CSIC)

Seguramente te han dicho alguna vez que eres un lince, o si hablas mucho te habrán llamado cotorra, y tú quizás hayas insultado a alguien llamándole burro… ¿Te has parado a pensar la cantidad de veces que utilizamos los nombres de animales para describir nuestro aspecto o comportamiento? Puede que los uses en tu día a día y probablemente no te hayas dado cuenta de que los animales se convierten en prototipos de los rasgos psicológicos de las personas. Además, con frecuencia las connotaciones negativas predominan sobre las positivas: por ejemplo, cuando tildamos a una mala persona de alimaña o de rata; o cuando interpretamos que los reptiles son desagradables y que los insectos son molestos, mientras que las aves cantan bien. Y nombres genéricos como animal o bestia se identifican de nuevo con rasgos negativos del ser humano. Sin embargo, la tendencia actual es usarlos en clave positiva junto a bicho o monstruo.

Portada del libro ¡Es un animal! La animalización de ser humano: historias de metáforas cotidianas, de José Luis Herrero Ingelmo

Un total de 320 nombres han sido analizados por José Luis Herrero Ingelmo, historiador de Lengua Española, en el libro ¡Es un animal! La animalización de ser humano: historias de metáforas cotidianas, de la Editorial CSIC. Para explicar nuestro propio mundo, los seres humanos recurrimos a la metáfora. Pero no se trata solo de una figura retórica. Como apunta el autor, este uso de los animales en nuestra lengua consiste en sustituir un adjetivo por un sustantivo para que el hablante pueda reflejar expresividad, intensidad o ironía. Por ejemplo, animales como el zorro son asociados a personas de dudosa moralidad (por no hablar de zorraver RAE). El buey o el toro sirven para denominar al cornudo, la vaca es la persona obesa y el búfalo alguien agresivo. El ciervo también mantiene relación con la infidelidad. Y si el asno o la mula apuntan a la escasez de entendimiento o la terquedad, los primates están relacionados con la fealdad y la brutalidad. Por su parte, el elefante remite al tamaño grande, lejos de cualquier connotación positiva.

Pero sin duda es el cerdo el animal que lo tiene todo: defectos físicos como la suciedad, psicológicos como la grosería y morales como la maldad. Además, al ser un nombre muy utilizado, está presente la sinonimia, ya que como destaca el autor se habla de puerco, marrano, cochino, cerdo, chancho, gorrino y guarro. En este breve repaso podemos ver que, si nos fijamos en el sentido metafórico de las expresiones que utilizamos, los mamíferos son los peor parados.

Reptiles como la sabandija o la víbora representan a las malas personas; y los gusanos, que se arrastran por la tierra, se relacionan con las “personas despreciables”, comenta el autor. Sin embargo, en el mundo de las aves ocurre todo lo contrario: valores positivos como el poderío o la audacia se ven reflejados en el águila, o en el gallo como alguien presuntuoso, pero también aquellas personas que cantan bien como el canario. En este menú de calificativos también está presente la torpeza, asociada al ganso o al pato, o la escasa altura de los pingüinos, el loro o el papagayo para las personas habladoras, el cuervo para alguien que se aprovecha, e incluso, la urraca para quien roba.

Por su parte, insectos como el abejorro o la mosca son molestos, y algunos como la cucaracha se utilizan para describir a las malas personas. Tampoco se libran los arácnidos ni los peces. Las arañas representan a los ladrones o cobardes. La sardina o el bacalao se asocian a la delgadez, y los necios al besugo. Los crustáceos siguen el mismo esquema: el caracol es una persona solitaria, lenta o cornuda. Y los anfibios como el sapo son feos.

La lista sería infinita. Incluso hay metáforas que comparten significados tanto negativos como positivos, según el ámbito geográfico en el que se utilicen. Por ejemplo, Herrero Ingelmo señala que el buey es la “persona tonta” en México mientras que en Puerto Rico se refiere al “amigo fiel”. Las asociaciones responden a prototipos de animales que representan distintos rasgos físicos o de personalidad.

El mundo animal ha estado muy presente a lo largo de nuestra historia, desde un sentido práctico en el mundo de la alimentación o la vestimenta, hasta el socio-afectivo en el caso de los animales de compañía. También en su relación con el pensamiento ético y simbólico, ya que han sido utilizados en el ámbito de las creencias, mitos, filosofía o literatura. Como hemos visto en este breve repaso de las metáforas que utilizamos frecuentemente con animales, también están presentes en nuestro lenguaje, y no solo lo enriquecen para bien o para mal, sino que los utilizamos para definirnos a nosotros mismos.

¿Cuándo empezamos a sentir? Electricidad en los circuitos cerebrales

Por Óscar Herreras (CSIC)*

¿Sentimos lo mismo ante una misma situación? Es evidente que no. Cada objeto, emoción o concepto se graba en circuitos neuronales por la propia experiencia de cada individuo, y para esto no hay manuales, no hay genes. Pero, ¿qué entendemos por sentir? Como casi todos los conceptos que empleamos para definir el comportamiento humano, este también tiene su origen en la era precientífica, de ahí sus mil significados.

Etimológicamente, sentir significa dirigirse hacia donde nos indican los sentidos. Implica, por tanto, percepción y movimiento. ¡Casi nada! Las dos principales propiedades de la vida animal. Afortunadamente, hay una disciplina que estudia las funciones del sistema nervioso y nos las explica con el lenguaje común de la física: la neurofisiología. De ella aprendimos hace ya más de un siglo que todo lo que se percibe –sonidos, imágenes, olores– se traduce y se transmite en los circuitos nerviosos como actividad eléctrica. Desde el instante en que vemos un anuncio de chocolate hasta el momento en el que los músculos nos llevan a la tienda, todo es actividad eléctrica fluyendo por los circuitos neuronales. Esta puede ser la definición mínima de sentir. Y no es para menos: la electricidad es la clave de la vida.

Todas las células, no solo las neuronas, son bolitas de grasa que contienen electrolitos en su interior, como si fueran la batería de un coche. Buena parte de estas células son excitables, lo que les permite generar corriente. Las neuronas evolucionaron dominando este juego de una forma espectacular: pueden codificar en forma de impulsos eléctricos lo que percibimos del mundo exterior e interaccionar con él enviando órdenes a los músculos. Sin flujo eléctrico a través de los circuitos nerviosos no hay sensación, no hay movimiento. La electricidad es lo que diferencia a los circuitos vivos de los muertos, así de simple.

Circuitos de la corteza cerebral

Diversos tipos neuronales forman los complejos circuitos en la corteza cuya actividad eléctrica y funciones madurarán lentamente en la infancia. /López-Mascaraque, Instituto Cajal, CSIC

No obstante, ¿es esta la única función de la electricidad en el sistema nervioso? No, ni mucho menos. Recientemente, nuestro grupo ha mostrado que la actividad eléctrica de la corteza cerebral sensorial en roedores jóvenes, aunque es similar a la de los adultos, está generada por circuitos diferentes. Este hallazgo, publicado en Journal of Neuroscience, es relevante porque previamente sabíamos que los circuitos ya estaban formados a esa edad, y ahora podemos concluir que aún no están plenamente operativos. En este caso, se trataba de los circuitos que controlan las patas, y sabemos que en unos pocos días más, cuando el animal entrene un poco, la electricidad fluirá por sus circuitos como en un adulto. Esta maduración tardía de los circuitos corticales a medida que se usan revela un patrón de economía biológica.

Lejos de ser canales fijos de comunicación, los circuitos son extremadamente mutables, y es nuestra actividad diaria la principal promotora de sus adaptaciones. El entrenamiento es esencial. Los recién nacidos entrenan días, meses y años para adquirir nuevas funciones y capacidades, tiempo en el que la electricidad irá produciendo los cambios necesarios para que todos los segmentos del circuito sean activos y engranen perfectamente.

Corteza cerebral rata adolescente

Los circuitos de la corteza cerebral están organizados en estratos de neuronas diferentes. /Silvia Tapia, Instituto Cajal, CSIC

Suele decirse que hay un mapa genéticamente determinado de nuestros circuitos, y esto es correcto, pero solo en parte. Sin la electricidad, los circuitos no se forman o lo hacen de manera aberrante, como mostraron hace más de medio siglo los Nobeles Hubel y Wiesel al observar que, impidiendo la visión de un ojo unos pocos días tras el parto, los circuitos de la corteza visual eran aberrantes. Hallazgos más recientes muestran que la actividad eléctrica es imprescindible para activar los genes necesarios en la construcción de los circuitos. Así, en esta época en la que todo parece consecuencia de un plan genético determinado para cada especie y cada individuo, resulta que la energía eléctrica determina cuándo, cuánto y cómo se va a ejecutar ese plan. La electricidad no es solo la energía que permite a un organismo complejo ejecutar sus funciones, sino que además controla sus propios cambios estructurales para adaptarse al medio con el que tiene que interaccionar, y permite que este interactúe con nosotros generando electricidad en nuestros órganos sensoriales y cambios en nuestro sistema nervioso.

Medicina sin fármacos

Estudiar y catalogar la electricidad en el cerebro no es fácil; hay demasiados núcleos activos a la vez realizando gran cantidad de funciones. Sus cambios son tan rápidos que es muy difícil clasificarlos para interpretar qué información llevan, que función realizan y si es normal o patológica. Si hoy la ciencia pone el énfasis en las alteraciones moleculares y génicas como responsables de las patologías, algunos investigadores vemos la electricidad como la causa última, y ya vislumbramos el día en que un conocimiento exhaustivo de la actividad eléctrica en los circuitos nos permita interactuar con ellos para reconducir las anomalías estructurales que causan las deficiencias. Aquí está una de las posibles claves de la investigación futura. Medicina sin fármacos. Sabemos que la actividad eléctrica debe seguir un patrón preciso para generar cambios en la estructura, tanto a nivel celular como en los circuitos. Ya hace décadas que se está empleando estimulación eléctrica con patrones temporales muy precisos para tratar la epilepsia y la enfermedad de Parkinson, y ahora se están desarrollando tecnologías para muchas otras patologías, como el alzhéimer o la migraña, o para restablecer funciones perdidas tras un ictus cerebral.

En definitiva, sentimos de manera diferente porque la actividad eléctrica fluye por distintas partes de nuestros circuitos, bien porque seamos un reptil o un primate, un embrión o un adulto, o bien porque usemos la parte reptiliana de nuestro cerebro o dejemos llegar la corriente eléctrica hasta la corteza. Así, si queremos comprendernos a nosotros mismos y nuestras patologías, seamos primates y estudiemos la actividad eléctrica del cerebro.

* Óscar Herreras es investigador del Instituto Cajal del CSIC.

¿Yogur natural o edulcorado?: cómo afecta su consumo a tu salud

Por Mar Gulis (CSIC)

¿Alguna vez te has parado a pensar qué productos fermentados forman parte de tu dieta? Son alimentos en los que su procesamiento involucra el crecimiento de microorganismos. Generalmente son más ricos nutricionalmente que un alimento no fermentado, ya que resultan más digeribles, contienen compuestos biactivos producidos durante la fermentación y constituyen una fuente de microorganismos. Estas características hacen que los alimentos fermentados resulten beneficiosos para la salud.

“El consumo de lácteos fermentados se ha asociado con la prevención de la obesidad, la reducción del riesgo de trastornos metabólicos y patologías relacionadas con el sistema inmunitario”, destaca el investigador Miguel Gueimonde del Instituto de Productos Lácteos de Asturias (IPLA) del CSIC. Precisamente, los lácteos fueron este año los protagonistas del Día Nacional de la Nutrición (28 de mayo), como también lo han sido de un estudio en el que ha participado el investigador para determinar cómo impacta el consumo de productos lácteos fermentados en la microbiota intestinal y en la salud.

yogur

Fuente: Freepik

La microbiota intestinal es la comunidad microbiana que se encuentra en nuestro intestino y está compuesta por cientos de especies bacterianas diferentes, presentes en niveles muy elevados  –entre 0,1 y 1 billón de bacterias por gramo de contenido colónico–. Durante la última década, numerosos estudios han puesto de manifiesto la importancia de la microbiota intestinal para la salud y cómo algunas alteraciones en ella se relacionan con el incremento en el riesgo de sufrir diversas patologías. Por ello, indica el investigador, ha aumentado el interés sobre la relación existente entre la microbiota intestinal y las distintas funciones del organismo, desde la intestinal a la inmune e incluso la cognitiva, así como al estudio de los factores que determinan y modulan la composición de la microbiota. Y entre ellos, la dieta tiene un papel destacado. Así que presta atención la próxima vez que decidas en el supermercado: ¿yogur natural o edulcorado?; antes deberías saber qué efectos podría tener en tu salud.

Estos productos aportan nutrientes de gran calidad y contribuyen a la presencia de microorganismos beneficiosos. Así lo demuestra este estudio en el que 130 adultos han proporcionado información nutricional y de hábitos de vida, y en él se ha evaluado la ingesta de alimentos mediante un cuestionario con 26 productos lácteos fermentados. Los favoritos: el yogur natural, el yogur edulcorado y el queso curado o semi curado.

Entre los resultados, el más sorprendente, destaca el investigador, fue la observación de una asociación positiva entre el consumo de yogur natural y los niveles de microorganismos del género Akkermansia en el intestino, que tienen efectos beneficiosos sobre la obesidad y el síndrome metabólico. “Nuestro estudio indica que el consumo regular de yogur natural ayuda a mantener unos niveles elevados de este microorganismo”, explica, unos resultados que demuestran “los posibles efectos beneficiosos del consumo de yogur”.

Por el contrario, estos efectos no se observaron en los consumidores de yogur edulcorado ya que este consumo se asoció a niveles más bajos de Bacteroides. Y, de hecho, señala Gueimonde, los efectos pueden verse afectados por la adición de edulcorantes, lo que conllevaría además efectos diferentes sobre la microbiota intestinal, pero esto sería objeto de otro estudio.

Cómo nos puede ayudar la ciencia frente al despilfarro de alimentos

Por Ana Mª Veses (CSIC)*

El otro día fui a un restaurante con mi familia. En la mesa de al lado, un niño se puso a protestar porque no le gustaba la comida que le habían servido; inmediatamente, un camarero acudió para retirarle el plato.

Esta anécdota contrasta con la realidad que nos muestra la Organización de las Naciones Unidas para la Alimentación y la Agricultura (FAO): mientras cerca de 800 millones de personas sufren desnutrición en el mundo, según datos de 2017, aproximadamente un tercio de la producción mundial de alimentos se pierde o se desperdicia.

Además, este despilfarro produce graves consecuencias para el medioambiente. Tirar comida supone una notable pérdida de recursos naturales (tierra, agua y energía) y un incremento de emisiones de gases de efecto invernadero, para producir unos alimentos que finalmente nadie consumirá. Si ‘dilapidar comida’ fuera un país, sería el tercero con más emisiones de dióxido de carbono, detrás de China y EEUU. Asimismo, los alimentos que producimos pero luego no comemos consumen un volumen de agua equivalente al caudal anual del río Volga.

¿Por qué pasa esto? ¿Alguien se ha planteado hacer algo al respecto?

En los países industrializados principalmente se desperdician tantos alimentos porque la producción excede a la demanda, porque los supermercados imponen altos estándares estéticos a los productos frescos y descartan aquellos que son más feos, y porque se piensa que tirar es más cómodo que reutilizar.

En cambio, en países en vías de desarrollo, según indican estudios de la FAO, el desperdicio de alimentos por parte de los consumidores es mínimo. En estos países, sin embargo, son los inadecuados sistemas comerciales y las escasas y deficientes instalaciones de almacenamiento y procesamiento los que provocan grandes pérdidas de alimentos.

Desde las instituciones públicas se están desarrollando diversas estrategias y planes de actuación, a distintos niveles, para controlar y reducir estos desperdicios. Se han puesto en marcha planes de sensibilización cuya finalidad es modificar hábitos y modelos de consumo en las comunidades, como la difusión de buenas prácticas de conservación de productos en los hogares a través de los medios de comunicación o aplicaciones móviles para la sensibilización e innovación social o para la redistribución de excedentes.

Ciencia y tecnología para desperdiciar menos

Por otro lado, la ciencia y la tecnología contribuyen a generar herramientas que puedan disminuir el desperdicio de alimentos a lo largo de toda la cadena alimentaria. La creación de nuevas técnicas de conservación de alimentos, diseños de envases más resistentes, así como el uso de tecnologías limpias y la identificación de dónde se producen las pérdidas de producto son algunas de las alternativas que se investigan. Por ejemplo, ya se está trabajando en el desarrollo de envases más resistentes al transporte, que puedan volver a cerrarse fácilmente o divididos en porciones que aumenten la vida útil de los alimentos.

El catálogo de iniciativas nacionales e internacionales sobre el desperdicio alimentario realizado por la Agencia Española de Seguridad Alimentaria y Nutrición (AESAN) reúne iniciativas como un papel diseñado en 2010 (por la empresa Fenugreen) que consigue duplicar el tiempo de conservación de frutas y verduras frescas. Está impregnado con distintas especias que inhiben el crecimiento de hongos y bacterias y, además, contiene un determinado aroma que informa de si el sistema sigue siendo efectivo. Este papel, utilizado tanto en la agricultura como en hogares de todo el mundo, tiene una vida de tres semanas y después se puede aprovechar como abono.

Otras iniciativas aseguran la integridad del sellado en los envases mediante la selección de materiales de difícil perforación o desarrollan envases activos que evitan la entrada de sustancias indeseables al tiempo que liberan otras beneficiosas para la conservación del producto, como biocidas, antioxidantes o compuestos que absorben el oxígeno y la humedad.

Algunas líneas de investigación se basan en la reutilización y el reciclaje de subproductos industriales para evitar la disposición en vertedero, de manera que se puedan desarrollar nuevos productos a partir de los materiales excedentarios, recuperar compuestos de interés para utilizarlos como aditivos o ingredientes en otras industrias, así como obtener nuevos productos más saludables.

En el Instituto de Ciencia y Tecnología de Alimentos y Nutrición (ICTAN) del CSIC, diversos grupos de investigación trabajan con residuos alimentarios procedentes de las industrias que usan productos vegetales y animales, con el objetivo de revalorizarlos. Uno de ellos es la okara, un subproducto de la soja que se obtiene tras extraer la fracción soluble para la producción de bebida de soja o tofu, y que antes era eliminado en las industrias de procesamiento. Al tratarla con altas presiones hidrostáticas y enzimas específicas, se consigue por un lado aumentar los carbohidratos solubles al doble de los valores iniciales y, por otro, incrementar sus capacidades prebióticas, favoreciendo el crecimiento de bacterias beneficiosas (Bifidobacterium y Lactobacillus) y la inhibición de otras potencialmente perjudiciales. Se ha comprobado que la okara tratada, suministrada a ratas que habían seguido una dieta grasa, frena la ganancia de peso, reduce los niveles de triglicéridos en plasma y aumenta la absorción mineral y la producción de ácidos grasos de cadena corta.

Estos ejemplos reflejan que se están empleando muchos recursos para frenar este problema y buscar soluciones. Pero no hay que olvidar el importante papel que tenemos los consumidores. Cada uno desde su posición, el personal investigador en sus laboratorios, los gobiernos en sus políticas y los consumidores en sus hogares, debemos colaborar para evitar que comida y productos válidos para el consumo sean desaprovechados, mientras en otra parte del mundo se pasa hambre.

* Ana Mª Veses es investigadora del Instituto de Ciencia y Tecnología de Alimentos y Nutrición del CSIC.

La mineralogía salva la vida a Iron Man

Por Carlos M. Pina (CSIC-UCM) y Carlos Pimentel (UPM, UCM)*

[Contiene spoilers] Han pasado ya casi 6 meses desde que los Vengadores nos salvaron por última vez. Después de que Thanos asesinase a la mitad de los seres vivos del Universo utilizando las Gemas del Infinito, estas fueron utilizadas por Bruce Banner (Hulk) para devolverles a la vida. Tras ello, los ejércitos de Thanos se enfrentaron a los Vengadores y sus aliados en una cruenta batalla. Para detenerla, Tony Stark (Iron Man) utilizó el Guantelete del Infinito, con el que logró destruir a Thanos y sus ejércitos. Sin embargo, las heridas producidas por el poder de las gemas también causaron su muerte. ¿Fue el sacrificio de Tony Stark en vano?

Miremos detenidamente el Guantelete del Infinito. Está compuesto por 6 gemas con distintos poderes y colores, que juntas tienen un poder inimaginable. Pero lo que todos podemos apreciar es su color, no su poder, incluido Thanos por muy titán que sea. ¿Qué hubiese ocurrido si los Vengadores hubiesen sabido algo de mineralogía? Podrían haberle dado el cambiazo a Thanos y haber sustituido las Gemas del Infinito por gemas iguales pero que careciesen de poderes, como la amatista (morado), el rubí (rojo), el zafiro (azul), el crisoberilo (amarillo), el topacio (naranja) y la esmeralda (verde); gemas muy comunes y mucho más baratas que cualquier armadura de Iron Man. Así, los Vengadores hubiesen ganado la Guerra del Infinito antes de comenzar, Tony Stark seguiría vivo y Steve Rogers continuaría siendo el Capitán América.

Partiendo de la idea de que los minerales que aparecen en la ciencia ficción y la fantasía (por ejemplo, Star Wars, Star Trek, Mundodisco o X-men) hemos escrito una Pequeña guía de minerales inexistentes (Ediciones Complutense, 2019) y organizado una exposición con el mismo nombre en Madrid, que podrá visitarse en la Biblioteca María Zambrano de la UCM hasta el 6 de noviembre. En ellos presentamos 16 minerales ficticios, indicando su origen, sus imposibles propiedades y aplicaciones, e incluso información sobre sus imposibles estructuras y composiciones químicas. El libro también describe minerales o materiales similares reales que muestran propiedades análogas.

¿Hay algún mineral tan radiactivo como la kryptonita que aparece en Superman? En la naturaleza existen algunos minerales altamente radiactivos, como por ejemplo, la uraninita, la pechblenda (variedad impura de la uraninita) y la becquerelita. Sin embargo, ninguno de estos minerales sería capaz de derrotar a Superman, para decepción de Lex Luthor.

¿Existe algún material tan duro como el adamantium que recubre los huesos de Lobezno? Sí, aunque sin su increíble dureza. Se trata de la widia, un metal que se usa, por ejemplo, en las brocas de los taladros.

¿Qué minerales se han usado para comerciar como el tiberium del popular videojuego Command & Conquer? Los metales preciosos, las gemas, la sal común (que es un mineral llamado halita) han sido utilizados históricamente como moneda de cambio.

Tiberium realizado con impresora 3D y que forma parte de la exposición.

¿Podemos pensar en algún mineral como los cristales de adegan de Star Wars? Por supuesto. El rubí fue el mineral con el que se fabricaron los primeros láseres, aunque no sirve para hacer sables láser como los de las películas (una lástima para los frikis).

¿Algún mineral mágico como el octirón de Mundodisco? Por supuesto que no, ya que los minerales no tienen propiedades mágicas. Por más que en muchas tiendas de minerales se les atribuyan ciertos poderes, esto es completamente falso.

¿Y por qué es importante saber de minerales? No es sólo para saber cómo salvar a nuestros personajes de cómics, películas o videojuegos preferidos. Los minerales también son esenciales en nuestra vida diaria. Para fabricar el móvil o la tablet en la que estás leyendo esta noticia se han utilizado al menos 13 minerales distintos, la electricidad llega a tu casa a través de cables de cobre que se extraen de minerales y hay minerales y rocas en tu cocina, como la sal o la encimera de granito. Además, los minerales nos cuentan, a geólogos y mineralogistas, cómo fue la Tierra en épocas pasadas. Gracias a su estudio, se ha podido determinar, por ejemplo, cómo era el clima en la época de los dinosaurios o cómo era la Tierra en el pasado.

La exposición podrá visitarse en la Biblioteca María Zambrano de la UCM hasta el 6 de noviembre. El 16 de octubre a las 18:00 habrá un acto de presentación tanto de la exposición como de la guía de minerales inexistentes.

* Carlos M. Pina es profesor titular de Cristalografía y Mineralogía en la Facultad de Ciencias Geológicas de la Universidad Complutense de Madrid e investigador del Instituto de Geociencias (IGEO, CSIC-UCM). Carlos Pimentel es investigador en la E.T.S.I. de Montes, Forestal y del Medio Natural de la Universidad Politécnica de Madrid y colaborador honorífico del Departamento de Mineralogía y Petrología de la Facultad de Ciencias Geológicas de la Universidad Complutense.

Anfetaminas legales: ¿Qué fue del Katovit y otros medicamentos retirados?

Por Mar Gulis (CSIC)

¿Recuerdas el Bustaid, el Optalidón o el Katovit? “Te hacía sentir bien, servía para el malestar general y te ayudaba a comenzar el día con energía”, comentaba sobre el Optalidón un asistente al club de lectura sobre Cómo se fabrica un medicamento (Editorial CSIC – Los Libros de la Catarata), una publicación de Carmen Fernández y Nuria Campillo*. En este evento, celebrado en el marco del proyecto Ciencia en el Barrio con mayores y adolescentes, se habló, entre otras muchas cuestiones, sobre la retirada de este popular medicamento que en los ochenta se podía adquirir en farmacias sin receta médica.

Medicamentos derramados de una botella

En el caso del Bustaid o el Katovit, el principal motivo de su retirada fue el mecanismo de acción de las anfetaminas que contenían. / jcomp – Freepik

¿Un superventas que, de la noche a la mañana, deja de comercializarse? No solo ocurrió con el Optalidón (ahora distribuido con una composición diferente, en la que se ha eliminado el ácido barbitúrico). El Bustaid o el Katovit fueron otros medicamentos muy populares en los setenta y noventa respectivamente que terminaron por desaparecer de las farmacias, y no fueron los únicos. El denominador común de muchos de ellos era que en su composición contenían derivados de las anfetaminas.

Hace ya más de cien años que las anfetaminas llegaron a nuestras vidas. A lo largo de su historia, desde que, en 1887, el químico Lazăr Edeleanu sintetizara por primera vez la anfetamina y se comenzara a estudiar en los años treinta, este grupo de sustancias y sus usos han evolucionado. Las anfetaminas son aminas simpatomiméticas, una clase de droga con una fórmula química estructural semejante a la adrenalina que produce estimulación del sistema nervioso central (SNC). Pero, ¿por qué se retiraron ciertos medicamentos que las contenían?

La investigadora y directora del Instituto de Química Médica (IQM) del CSIC Ana Castro insiste en la importancia del mecanismo por el que los fármacos ejercen su acción terapéutica. Es fundamental conocer el mecanismo de acción de un fármaco para controlar los efectos colaterales de su uso. “Todo nuestro cuerpo está interconectado y en él se producen numerosos y complejos procesos biológicos”, explica la científica. Por ejemplo, un fármaco diseñado para actuar sobre una determinada diana terapéutica, probablemente tendrá implicaciones en otros sistemas biológicos relacionados con ella. Es por este motivo que hay que valorar los efectos secundarios de todos los medicamentos, sopesar los beneficios y riesgos de su puesta en el mercado, señala Castro. En el caso del Bustaid o el Katovit, fue el mecanismo de acción de las anfetaminas que contenían el principal motivo de su retirada.

Patricia Robledo, investigadora en la Universidad Pompeu Fabra y el Institut Hospital del Mar d’Investigacions Mèdiques, analiza en profundidad en su trabajo de investigación sobre las anfetaminas el mecanismo de acción de estas sustancias psicotrópicas que involucra a varios neurotransmisores como la dopamina, la serotonina, la adrenalina y la noradrenalina. Al consumir anfetaminas aumentan la dopamina y la serotonina, que regulan la sensación de apetito, provocando el efecto anorexígeno (supresión del apetito). También se libera noradrenalina, cuyos efectos son el incremento de la actividad motora y la disminución del cansancio, así como la taquicardia, la sudoración y la dificultad para orinar.

Las anfetaminas, además, originan un aumento de la presión arterial y la frecuencia cardiaca y, a nivel del SNC, este tipo de estupefacientes produce sensación de alerta, estimulación y mejoría del rendimiento intelectual, entre otros efectos. Sin embargo, tiene gran potencial de abuso, es decir, puede causar dependencia y, a medida que aumenta su consumo, aparece la tolerancia y la necesidad irresistible de consumo. También “es frecuente la aparición de cuadros psicóticos”, como apunta Robledo en su estudio.

Farmacovigilancia: el control de los medicamentos en el mercado

Si tomamos como ejemplo el Katovit de los años noventa, asociado a un complejo vitamínico, vemos que cada gragea contenía 10 miligramos de clorhidrato de prolintano. El prolintano, un estimulante central derivado de la dexanfetamina, fue uno de los principios activos que la Agencia Española de Medicamentos y Productos Sanitarios (AEMPS) prohibió en 2005 por diferentes problemas de seguridad.

Este organismo público es el encargado de garantizar a la sociedad la calidad, seguridad, eficacia y correcta información de los medicamentos y productos sanitarios. Por ello, el trabajo no finaliza tras el éxito de unos ensayos clínicos y la colocación del producto en el mercado. Para Castro, “los medicamentos son proyectos vivos y al ponerlos en las farmacias, la aventura no termina. De su uso en el contexto global podrán surgir nuevas observaciones clínicas que merezcan ser analizadas”. Así, la fase de la farmacovigilancia adquiere mucha importancia. De ella no es solo responsable la AEMPS, todas las compañías farmacéuticas cuentan con unidades de farmacovigilancia que controlan la eficiencia y la seguridad del fármaco.

Además de emitir notas informativas, de seguridad y alertas, la AEMPS también difunde informes de posicionamiento terapéutico. En 2017, publicó uno sobre el tratamiento de la narcolepsia donde recomendaba la utilización de un fármaco no anfetamínico, tan efectivo como los estimulantes del SNC en la reducción del sueño diurno, pero con menos efectos adversos y con bajo potencial de abuso.

En la actualidad, los productos derivados de las anfetaminas tienen dos vertientes: la de uso terapéutico y la de uso ilegal. Nos quedaremos con la primera, cuyas dos únicas indicaciones son el tratamiento de la narcolepsia y del déficit de atención infantil. “No nos podemos saltar los pasos y olvidar a los profesionales de la sanidad”, recuerda Castro, que apela a la responsabilidad del uso de cualquier medicamento.

 

*Carmen Fernández y Nuria Campillo son investigadoras del Centro de Investigaciones Biológicas (CIB), del CSIC, y autoras del libro Cómo se fabrica un medicamento (Editorial CSIC – Los Libros de la Catarata), de la colección ¿Qué sabemos de?

¿Qué son las “enzimas promiscuas”?

Por Francisco J. Plou (CSIC)*

Las enzimas son catalizadores biológicos, o biocatalizadores, responsables de regular y acelerar de forma sustancial la velocidad de las reacciones químicas en los seres vivos. Trabajos de los químicos estadounidenses Sumner y Northrop (ambos compartieron Premio Nobel de Química en 1946, junto con Stanley) permitieron determinar que las enzimas eran proteínas. Por tanto, al igual que estas últimas, las enzimas están formadas por aminoácidos y juegan un papel crucial en casi todos los procesos biológicos. El potencial químico de un ser vivo queda definido por su información genética, y las enzimas son las entidades biológicas que convierten dicha información en acción. Dicho de otro modo, las enzimas son proteínas que incrementan la velocidad de una reacción química sin consumirse y recuperándose sin cambios esenciales. Así, las enzimas son muy eficaces y específicas, ya que cada una está especializada en procesar una reacción concreta.

En esta imagen de microscopía electrónica de barrido se pueden observar tres enzimas distintas formando complejos cristalinos con fosfato de cobre. Los complejos de proteína y sal crecen formando estructuras semejantes a algunas flores. / David Talens Perales (IATA-CSIC). FOTCIENCIA16

En esta imagen de microscopía electrónica de barrido se pueden observar tres enzimas distintas formando complejos cristalinos con fosfato de cobre. Los complejos de proteína y sal crecen creando estructuras semejantes a algunas flores. / David Talens Perales (IATA-CSIC). FOTCIENCIA16

En los últimos años, un nuevo concepto, que se contrapone a esta especificidad de las enzimas, ha adquirido un notable protagonismo: la promiscuidad. Este término nos puede evocar a relaciones poco estables o “de flor en flor” entre personas, pero también se ha he­cho un hueco en el ámbito de la bioquímica, si bien suele utilizarse en su lugar el concepto más académico de “amplia especificidad”. En el metabolis­mo cada enzima se ha especializado, a través de la evolución, en una determinada reacción química, para lo que es necesa­rio que la enzima reconozca un sustrato muy concreto. Este es el caso de la glucosa oxidasa, una enzima que solo reconoce a la glucosa y se muestra indiferente con azúcares muy similares como la galactosa o la fructosa. Por ello tiene múltiples aplicaciones en biotecnología, entre las que destaca el poder cuantificar la glucosa libre en los fluidos biológicos (sangre y orina), base de los biosensores de las personas diabéticas. Sin embargo, cada año se publican nuevos artículos en los que se reseña cómo una enzima es capaz de aceptar sustratos alternativos al original (lo que se denomina “promiscuidad de sustrato”) o, lo que resulta mucho más rompedor, catali­zar otro tipo de transformaciones químicas (lo que se conoce como “promiscuidad catalítica”). La mayoría de enzimas, entonces, son promiscuas.

¿De dónde proviene esta propiedad? Se cree que las enzimas actuales han evolucionado a partir de enzimas ancestrales que mostraban una gran promiscuidad, esto es, las primeras enzimas eran generalistas y realizaban por tanto funciones muy diversas. Así, las células no podían gastar energía en producir enzimas especializadas y preferían en­zimas multifunción, como esos sacacorchos que, además de permitirnos abrir una botella de vino, incluyen una pequeña navaja y un sinfín de accesorios. Pero con el tiempo fue nece­sario dotar a las enzimas de mayor actividad catalítica y espe­cificidad, como laboriosa “mano de obra” cada vez más especializada y eficaz. Parece ser una consecuencia evidente de la divergencia evolutiva.

Estos conceptos chocan de frente con los descritos en uno de los libros más vendidos sobre estas cuestiones en los últimos años, La enzi­ma prodigiosa, del médico Hiromi Shinya. El autor señala, con poca base científica, que en nuestro organismo “hay una enzima madre, una enzima prototipo, sin especialización. Hasta que esta enzima madre se convierte en una enzima específica como respuesta a una necesidad particular, tiene el potencial de convertirse en cual­quier enzima”.

La Mata Hari de las enzimas

Pero sigamos con nuestras enzimas promiscuas. Desde el punto de vista aplicado, la promiscuidad de sustrato presenta connotaciones de gran interés. Por un lado, para ciertos usos es deseable que las enzimas sean poco es­pecíficas. Nos referimos, por ejemplo, a su empleo en deter­gentes, donde una lipasa debe atacar cuantos más tipos de manchas de grasa, mejor, o a su utilización en descontaminación, en la que una oxidorreductasa es preferible que oxide el mayor número posible de compuestos recalcitrantes.

En cuanto a la promiscuidad catalítica, que implica que una misma enzima es funcional en reacciones que pertenecen a varias de las seis clases descritas en el cuadro de la imagen (tabla 1), es notorio el caso de la lipasa B de la levadura Candida an­tarctica. Esta enzima, a la que podríamos denominar la Mata Hari de la enzimología, se ha convertido en uno de los bio­catalizadores con mayores aplicaciones industriales. Por citar algunas: cataliza reaccio­nes diversas que incluyen la hidrólisis e interesterificación de grasas, la obtención de poliésteres, la síntesis de amidas, reso­luciones racémicas, condensaciones aldólicas, epoxidaciones y la reacción de Mannich, que se usa por ejemplo para sintetizar fármacos, entre otras cosas. Como señalan algunos científicos, “es el momento de investigar nuevas re­acciones para viejas enzimas”. Con ello aumentarán las posibilidades catalizadoras de las enzimas.

 

* Francisco J. Plou es investigador en el Instituto de Catálisis y Petroleoquímica del CSIC y autor del libro ‘Las enzimas’ (Editorial CSIC  Los Libros de la Catarata).

¿Por qué oímos hasta con los oídos tapados?

Por Mar Gulis (CSIC)

Imagina que oyes de repente un ruido muy molesto, como una alarma a todo volumen, un pitido intenso que no cesa durante minutos o que estás en medio de una conversación bulliciosa entre varias personas. Seguramente lo primero que vas a hacer es taparte los oídos, pero te darás cuenta de que lo vas a seguir oyendo… aunque sea de una forma más leve. ¿Por qué ocurre esto?

Nuestros oídos son un laberinto para el sonido. Un laberinto dividido en tres partes: oído externo, medio e interno. El recorrido comienza cuando el sonido llega al oído externo y golpea al tímpano, haciéndolo vibrar, y esa vibración se transmite a través de la cadena de huesecillos (martillo, yunque y estribo) que se encuentran en el oído medio. Las vibraciones continúan hasta la cóclea, en el oído interno y en forma de espiral, también conocida como caracol, donde se convierten en impulsos electroquímicos que viajan hasta el cerebro, capaz de interpretar y entender a través de las terminaciones nerviosas del ganglio auditivo. Esto es lo que nos permite oír.

oído, sonido, sordera

Así lo explican la investigadora Isabel Varela Nieto, del Instituto de Investigaciones Biomédicas Alberto Sols (CSIC-UAM), y el otorrinolaringólogo Luis Lassaletta Atienza, autores del libro La sordera, de la colección ¿Qué sabemos de? (Editorial CSIC – Los Libros de la Catarata). La energía acústica se transmite desde el exterior hasta la cóclea, y toda esa cadena “proporciona una amplificación a la señal sonora de unos 35 decibelios (dB)”. Oímos, incluso aunque tengamos los oídos tapados, porque el sonido puede llegar hasta la cóclea a través de la vía ósea. De esta forma la vibración sonora se transmite a través del cráneo, que pone en marcha los líquidos del laberinto de nuestro oído.

Exposición constante al ruido: trauma acústico y la sordera del siglo XXI

La explosión de un petardo, un disparo o la música de una discoteca a todo volumen. Estos son algunos de los ruidos que si escuchas de forma intensa o prolongada podrían pasarte factura: desde provocar lesiones en el oído hasta el conocido como trauma acústico, que se produce cuando el deterioro es irreversible, señalan los investigadores. Por ello, advierten sobre una serie de factores a tener en cuenta para prevenir estos trastornos: la intensidad sonora (límite de 80 dB), el tiempo de exposición, la frecuencia de ruido (las más lesivas, comprendidas entre 2.000 y 3.000 Hz) y la susceptibilidad de cada persona.

De hecho, hay personas que por su profesión están más expuestas al ruido, incluso a más de 80 dB, como por ejemplo armeros, militares o personal de una discoteca. Sobrepasar este límite “produce de forma característica una pérdida de audición bilateral con afectación inicial en 4.000 Hz que con el tiempo afecta al resto de frecuencias”. Y peor aún, el impacto sonoro puede desembocar en hipoacusia neurosensorial –que responde a problemas en el receptor auditivo, la cóclea o en las vías nerviosas– o en acúfenos, es decir, la sensación de oír ruidos dentro de la cabeza.

El ruido es, por tanto, la principal causa evitable de sordera en el mundo. Aunque no siempre llega del exterior: el uso de dispositivos de audio a una intensidad alta durante varias horas también puede derivar en esta dolencia. Por ello, los autores destacan que “el mejor tratamiento para el trauma acústico es la prevención”, ya que todavía no existe un tratamiento específico, lo que constituye uno de los retos de la medicina del siglo XXI. De hecho, evitar el ruido puede ser una opción recomendable.

 

* Puedes leer más en el libro La sordera (Editorial CSIC – Los Libros de la Catarata), de la colección ¿Qué sabemos de?