Entradas etiquetadas como ‘salud’

Anfetaminas legales: ¿Qué fue del Katovit y otros medicamentos retirados?

Por Mar Gulis (CSIC)

¿Recuerdas el Bustaid, el Optalidón o el Katovit? “Te hacía sentir bien, servía para el malestar general y te ayudaba a comenzar el día con energía”, comentaba sobre el Optalidón un asistente al club de lectura sobre Cómo se fabrica un medicamento (Editorial CSIC – Los Libros de la Catarata), una publicación de Carmen Fernández y Nuria Campillo*. En este evento, celebrado en el marco del proyecto Ciencia en el Barrio con mayores y adolescentes, se habló, entre otras muchas cuestiones, sobre la retirada de este popular medicamento que en los ochenta se podía adquirir en farmacias sin receta médica.

Medicamentos derramados de una botella

En el caso del Bustaid o el Katovit, el principal motivo de su retirada fue el mecanismo de acción de las anfetaminas que contenían. / jcomp – Freepik

¿Un superventas que, de la noche a la mañana, deja de comercializarse? No solo ocurrió con el Optalidón (ahora distribuido con una composición diferente, en la que se ha eliminado el ácido barbitúrico). El Bustaid o el Katovit fueron otros medicamentos muy populares en los setenta y noventa respectivamente que terminaron por desaparecer de las farmacias, y no fueron los únicos. El denominador común de muchos de ellos era que en su composición contenían derivados de las anfetaminas.

Hace ya más de cien años que las anfetaminas llegaron a nuestras vidas. A lo largo de su historia, desde que, en 1887, el químico Lazăr Edeleanu sintetizara por primera vez la anfetamina y se comenzara a estudiar en los años treinta, este grupo de sustancias y sus usos han evolucionado. Las anfetaminas son aminas simpatomiméticas, una clase de droga con una fórmula química estructural semejante a la adrenalina que produce estimulación del sistema nervioso central (SNC). Pero, ¿por qué se retiraron ciertos medicamentos que las contenían?

La investigadora y directora del Instituto de Química Médica (IQM) del CSIC Ana Castro insiste en la importancia del mecanismo por el que los fármacos ejercen su acción terapéutica. Es fundamental conocer el mecanismo de acción de un fármaco para controlar los efectos colaterales de su uso. “Todo nuestro cuerpo está interconectado y en él se producen numerosos y complejos procesos biológicos”, explica la científica. Por ejemplo, un fármaco diseñado para actuar sobre una determinada diana terapéutica, probablemente tendrá implicaciones en otros sistemas biológicos relacionados con ella. Es por este motivo que hay que valorar los efectos secundarios de todos los medicamentos, sopesar los beneficios y riesgos de su puesta en el mercado, señala Castro. En el caso del Bustaid o el Katovit, fue el mecanismo de acción de las anfetaminas que contenían el principal motivo de su retirada.

Patricia Robledo, investigadora en la Universidad Pompeu Fabra y el Institut Hospital del Mar d’Investigacions Mèdiques, analiza en profundidad en su trabajo de investigación sobre las anfetaminas el mecanismo de acción de estas sustancias psicotrópicas que involucra a varios neurotransmisores como la dopamina, la serotonina, la adrenalina y la noradrenalina. Al consumir anfetaminas aumentan la dopamina y la serotonina, que regulan la sensación de apetito, provocando el efecto anorexígeno (supresión del apetito). También se libera noradrenalina, cuyos efectos son el incremento de la actividad motora y la disminución del cansancio, así como la taquicardia, la sudoración y la dificultad para orinar.

Las anfetaminas, además, originan un aumento de la presión arterial y la frecuencia cardiaca y, a nivel del SNC, este tipo de estupefacientes produce sensación de alerta, estimulación y mejoría del rendimiento intelectual, entre otros efectos. Sin embargo, tiene gran potencial de abuso, es decir, puede causar dependencia y, a medida que aumenta su consumo, aparece la tolerancia y la necesidad irresistible de consumo. También “es frecuente la aparición de cuadros psicóticos”, como apunta Robledo en su estudio.

Farmacovigilancia: el control de los medicamentos en el mercado

Si tomamos como ejemplo el Katovit de los años noventa, asociado a un complejo vitamínico, vemos que cada gragea contenía 10 miligramos de clorhidrato de prolintano. El prolintano, un estimulante central derivado de la dexanfetamina, fue uno de los principios activos que la Agencia Española de Medicamentos y Productos Sanitarios (AEMPS) prohibió en 2005 por diferentes problemas de seguridad.

Este organismo público es el encargado de garantizar a la sociedad la calidad, seguridad, eficacia y correcta información de los medicamentos y productos sanitarios. Por ello, el trabajo no finaliza tras el éxito de unos ensayos clínicos y la colocación del producto en el mercado. Para Castro, “los medicamentos son proyectos vivos y al ponerlos en las farmacias, la aventura no termina. De su uso en el contexto global podrán surgir nuevas observaciones clínicas que merezcan ser analizadas”. Así, la fase de la farmacovigilancia adquiere mucha importancia. De ella no es solo responsable la AEMPS, todas las compañías farmacéuticas cuentan con unidades de farmacovigilancia que controlan la eficiencia y la seguridad del fármaco.

Además de emitir notas informativas, de seguridad y alertas, la AEMPS también difunde informes de posicionamiento terapéutico. En 2017, publicó uno sobre el tratamiento de la narcolepsia donde recomendaba la utilización de un fármaco no anfetamínico, tan efectivo como los estimulantes del SNC en la reducción del sueño diurno, pero con menos efectos adversos y con bajo potencial de abuso.

En la actualidad, los productos derivados de las anfetaminas tienen dos vertientes: la de uso terapéutico y la de uso ilegal. Nos quedaremos con la primera, cuyas dos únicas indicaciones son el tratamiento de la narcolepsia y del déficit de atención infantil. “No nos podemos saltar los pasos y olvidar a los profesionales de la sanidad”, recuerda Castro, que apela a la responsabilidad del uso de cualquier medicamento.

 

*Carmen Fernández y Nuria Campillo son investigadoras del Centro de Investigaciones Biológicas (CIB), del CSIC, y autoras del libro Cómo se fabrica un medicamento (Editorial CSIC – Los Libros de la Catarata), de la colección ¿Qué sabemos de?

Arte y ciencia se alían contra la contaminación urbana

Por Fernando del Blanco Rodríguez (CSIC)*

Zabol, Onitsha, Peshawar, Gwalior… Tal vez a un oído europeo no le diga mucho el nombre de estas ciudades. Sin embargo, cada una de ellas se encuentra representada en uno de los doce relojes que conforman la instalación artística conTIMEminación, que se exhibe el Centro de Investigación y Desarrollo de Barcelona (CID-CSIC). ¿Por qué?

conTIMEminacio

Pues precisamente porque estas ciudades presentan algunos de los índices de polución ambiental más altos del mundo si atendemos a los datos de la Organización Mundial de la Salud (OMS) de 2016 sobre calidad de aire y, en concreto, a los indicadores de presencia de material particulado en suspensión (PM).

Este material particulado al que alude la OMS y que es posible detectar en la atmósfera de nuestras ciudades se suele clasificar en dos grupos según el tamaño de las partículas que lo constituyen: por un lado, las partículas de diámetro aerodinámico igual o inferior a los 10 micrómetros (µm) –un micrómetro equivale a una milésima parte de un milímetro–, denominadas PM10; y, por otro, la fracción respirable más pequeña, las partículas de diámetro aerodinámico inferior o igual a los 2,5 micrómetros, a las que nos referimos como PM2,5.

El tamaño no supone la única diferencia entre ambos grupos. Las PM2,5, consideradas las más potencialmente peligrosas para la salud, se originan sobre todo en fuentes de combustión creadas por los seres humanos, como las emisiones de los motores diésel. Mientras, una parte significativa de las partículas de mayor tamaño suele ser de tipo metálico o mineral, ya sea de origen antrópico (humano) o natural.

La instalación conTIMEminación, creada por el artista Francisco Martínez Gómez, explora los problemas derivados de la presencia de estas partículas en nuestros entornos. Consta de doce relojes en funcionamiento, cada uno de los cuales ha sido inyectado con un producto metafóricamente tóxico que detendrá su mecanismo a medida que la agujas ya no sean capaces de superar la resistencia creciente e incesante de la sustancia extraña que las entorpece.

El proyecto, que cuenta con la colaboración de los investigadores del CSIC Xavier Querol y Sergi Díez, propone una reflexión en torno al volumen de contaminación al que estamos sometidos los habitantes de los núcleos urbanos y esboza el desenlace alegórico al que nos abocaría no comprender la magnitud de este riesgo.

Cada reloj representa una ciudad: Zabol (Irán), Onitsha (Nigeria), Peshawar (Pakistán), Riyadh (Arabia Saudí), Gwalior (India), Guangzhou (China), Moscú (Rusia), Estambul (Turquía), Buenos Aires (Argentina), París (París), Barcelona (España) y Lima (Perú). El artista y los investigadores matizan que la instalación no pretende reflejar los datos científicos de forma precisa, sino ilustrar la dimensión global del problema. Estas ciudades sufren significativos problemas de polución, aunque no todas presentan los indicadores más altos de contaminación.

Tendencias opuestas

“La tendencia de la calidad del aire en el mundo puede llegar a seguir evoluciones temporales opuestas en función del desarrollo económico”, explica Querol. “Mientras en Europa, Australia, EEUU, Japón y otras sociedades desarrolladas, la calidad ha mejorado drásticamente en las últimas décadas, en algunas ciudades de Irán, Pakistán, India y China se evidencia un empeoramiento muy marcado”, aclara este investigador del Instituto de Diagnóstico Ambiental y Estudios del Agua (IDAEA) del CSIC.

Concentración de material particulado con diámetro aerodinámico igual o menor a 2,5 micrómetros (PM2,5) en cerca de 3.000 áreas urbanas, 2008-2015. / Organización Mundial de la Salud, 2016

Mapa PM 10

Concentración de material particulado con diámetro aerodinámico igual o menor a 10 micrómetros (PM10) en cerca de 3.000 áreas urbanas, 2008-2015. / Organización Mundial de la Salud, 2016

El caso de España está en sintonía con el europeo. Si en 2005 en nuestro país 49 zonas incumplían la normativa para PM, en la actualidad solo lo hace una (Avilés). Esta tendencia ha reducido notablemente las muertes prematuras anuales atribuibles a la mala calidad del aire en la Unión Europea: según la Agencia Europea de Medio Ambiente, se ha pasado de una estimación de un millón de muertes al año en 1990 a otra de 400.000 en 2016.

Querol considera que “los países y ciudades más avanzados en política ambiental han asumido social y políticamente que la calidad del aire no es un tema solamente de ecologismo, sino que lo es de salud pública en primer lugar”. Sin embargo, estos avances no han servido para alcanzar metas como la estrategia europea inicial en materia ambiental. “Prueba de ello es que desde 2010 debíamos cumplir una legislación en dióxido de nitrógeno que se ha infringido ampliamente en toda la Europa urbana; o que aún no se han adoptado como normativos los valores guía para PM de la OMS, a pesar de que la primera directiva de calidad del aire en Europa establecía que esto debía hacerse en 2010”, afirma el investigador.

A su juicio, para reducir la contaminación urbana es necesario adoptar medidas que “afectan al vehículo privado y la distribución de mercancías”. En esta dirección se enfoca el proyecto europeo Airuse Life +, galardonado como el mejor proyecto `Ciudades Verdes´ de 2018 y coordinado por este especialista. La iniciativa propone una reformulación urbanística, logística y del transporte muy profunda como estrategia para conseguir reducir la contaminación del aire en nuestras ciudades.

Mientras esto pasa en Europa, conTIMEminación se pregunta si estas medidas –en caso de que se implementen– llegarán a tiempo, y si lo harán en aquellos entornos –como los de los países en desarrollo– donde sus habitantes sufren un tipo de pobreza aun escasamente contemplada como un fenómeno de desigualdad geoeconómica: la pobreza ambiental. La imposibilidad de respirar aire digno.

Zabol, Onitsha, Peshawar, Gwalior…

* Fernando del Blanco Rodríguez es bibliotecario en el Centro de Investigación y Desarrollo del CSIC.

¿Puede un robot diagnosticar una enfermedad mejor que un médico?

Por Ramón López de Mántaras y Pedro Meseguer (CSIC)*

La respuesta es ‘sí’. Pero, como casi todas las respuestas, hay que matizarla.

Históricamente, uno de los ámbitos de aplicación de la inteligencia artificial (IA) ha sido la medicina. En la actualidad la técnica de IA que está dando los resultados más espectaculares en el ámbito del diagnóstico basado en la imagen es el llamado aprendizaje profundo, que consiste en aprender a reconocer patrones de manera muy eficiente. Con esta técnica, recientemente científicos de la Universidad de Carnegie Mellón (EE UU), en colaboración con cuatro hospitales de Chicago, han desarrollado un sistema capaz de predecir infartos con cuatro horas de antelación en enfermos ingresados en UCIs, lo que mejora en más de tres horas los tiempos de predicción de los cardiólogos. Otro ejemplo exitoso de aplicación del aprendizaje profundo es el análisis combinado de imágenes médicas de rayos rayos X, MRI y ultrasonidos desarrollado por un grupo de la Universidad de Queensland (Australia), el cual puede diagnosticar el cáncer de mama mejor que los médicos.

diagnostico por ordenadorEste tipo de sistemas se entrenan a partir de enormes cantidades de datos. Así, el software capaz de predecir infartos fue entrenado con datos de 133.000 pacientes, que incluían 72 parámetros presentes en la historia clínica de estas personas (signos vitales, edad, glucemia, recuentos de plaquetas, etc.).

Cuando no se dispone de suficientes datos o el problema médico que se quiere resolver no se basa en el reconocimiento de patrones, sino más bien en razonamiento lógico basado en el procesamiento de conocimientos médicos, entonces es posible recurrir a otra técnica de IA menos novedosa pero también muy útil. Se trata de los denominados sistemas expertos, que utilizan el conocimiento acumulado sobre los síntomas de una enfermedad, el historial médico y los resultados de análisis médicos para llegar a conclusiones sobre el estado de un paciente, es decir, para diagnosticar. Cuanto mayor sea su capacidad para combinar sus conocimientos con las observaciones reales, más exacto será su diagnóstico.

El primer sistema experto médico fue HEURISTIC DENDRAL, desarrollado a partir de los años 70 en la Universidad de Stanford, en el ámbito de la química orgánica. Poco después, en la misma universidad se desarrolló MYCIN, orientado a las enfermedades infecciosas. Una parte del sistema describía posibles síntomas y otra expresaba una posible causa de los mismos. Además de incorporar conocimientos que permitían diagnosticar el agente causante de la infección, MYCIN también contenía información acerca del tratamiento adecuado, por lo que resultaba útil para la toma de decisiones por parte de los médicos.

Hoy ya hay multitud de sistemas en este campo que se usan regularmente en hospitales y centros médicos de todo el mundo. Por ejemplo, ATHENA, que ayuda a los médicos a tratar a pacientes con problemas de hipertensión. Este sistema procesa los datos clínicos de cada paciente y, a partir de su base de conocimientos sobre hipertensión, genera recomendaciones para mejorar la atención clínica personalizada.

Una de las aplicaciones más potentes a nivel mundial es el sistema GIDEON, que ayuda a diagnosticar 337 enfermedades infecciosas específicas en 224 países. Su base de datos cubre 1.147 taxones microbianos y 306 agentes antibacterianos y vacunas. La información que maneja es actualizada semanalmente e incluye más de 20.000 imágenes, gráficos, mapas infografías, etc. Todo ello le permite llegar a un 94% de diagnósticos correctos, y de ahí que sea uno de los sistemas más usados en el ámbito de la medicina. GIDEON es útil tanto para el diagnóstico y tratamiento de las enfermedades infecciosas, como para mejorar su conocimiento, identificar microorganismos patógenos y detectar brotes epidémicos. Básicamente lo que hace GIDEON es mejorar la exactitud del diagnóstico y ampliar la base de conocimientos de la persona experta. Ahora bien, como todo sistema, presenta algunas limitaciones. Por ejemplo, no es capaz de diagnosticar simultáneamente enfermedades concurrentes. Además, los signos y síntomas que se introducen para realizar una consulta se relacionan únicamente con las enfermedades transmisibles registradas en el sistema, por lo que quedan excluidas muchas otras.

En cualquier caso, es importante recalcar que los sistemas basados en IA, a pesar de ser capaces de proporcionar diagnósticos rápidos y certeros, nunca superarán el sentido común y el buen juicio de una persona, ni tampoco el efecto placebo resultante del trato humano y la empatía que caracteriza a un buen profesional de la medicina en la relación con sus pacientes. Otro punto fuerte de los expertos humanos respecto a la inteligencia artificial es la capacidad de aplicar el conocimiento existente cuando, por ejemplo, los datos son incompletos o la información sobre el estado de un paciente no se corresponde bien con los casos usuales.

Sin embargo, para un médico la capacidad de recordar datos organizados puede ser un factor limitante, igual que la de correlacionar los casos observados con el patrón de datos existente. Por ello el uso de sistemas de IA es una excelente ayuda. De hecho, los sistemas de IA en medicina no deberían diseñarse con el objetivo de sustituir al médico u otro personal sanitario, sino como sistemas de ayuda y complemento de su labor.

 

* Ramón López de Mántaras y Pedro Meseguer son investigadores del CSIC en el Instituto de Investigación en Inteligencia Artificial del CSIC y autores del libro de divulgación Inteligencia Artificial (CSIC-Catarata).

Cinco falsos mitos sobre la leche

Por Ascensión Marcos (CSIC)*

Durante los últimos años, la leche de vaca se ha convertido en uno de los alimentos más controvertidos en materia de salud. Aunque se considera uno de los alimentos más nutritivos y completos, también se asegura que es dañina para la salud, debido a su composición particular. En el momento actual ha descendido el consumo de leche de vaca y sus derivados, e incluso algunas personas han dejado de consumirla, sustituyendo estos productos por las mal denominadas ‘leches vegetales’ de almendras, soja, tofu, etc. Antes de tomar una decisión de este tipo, es importante informarse sobre los mitos y realidades alrededor del consumo de leche de vaca y sus derivados.

La leche de vaca tiene mayor valor nutritivo que las conocidas como ‘leches vegetales’. / Patty Jansen

Por este motivo, la Fundación Iberoamericana de Nutrición (FINUT) y la Fundación Española de la Nutrición (FEN) elaboraron un informe que la Federación Española de Sociedades de Nutrición, Alimentación y Dietética (FESNAD) apoyó científicamente.

Veamos algunos falsos mitos en torno a la leche:

  • La leche debería consumirse solo en la niñez porque el ser humano no está hecho para tomarla. La evolución del ser humano le ha permitido tomar leche más allá de la infancia. En un principio, la leche era sinónimo de veneno, ya que el ser humano precisaba de la enzima lactasa para tolerar y digerir la lactosa, el azúcar de la leche. En el Neolítico, hace unos 11.000 años, comenzó la domesticación de los animales y con ello la obtención de leche y elaboración de productos lácteos en el norte de Europa y en el Medio Oriente. Poco a poco el ser humano comenzó a producir esta enzima y pudo digerir la leche y con ello aprovechar un alimento muy rico en nutrientes.
  • La leche sin lactosa es mejor. La intolerancia a la lactosa es un trastorno de metabolización del organismo que impide digerir este azúcar. No hay ninguna necesidad de tomar la leche sin lactosa si no sufrimos de intolerancia, ya que no hay estudios que confirmen que este producto sea mejor para la digestión, tal y como se nos quiere hacer creer. Incluso se está investigando si podría crearse una intolerancia a la lactosa por dejar de consumir leche y derivados lácteos. De hecho, el mayor riesgo de intolerancia aparece en África y Asia (65-100%), mientras que en España es mucho menor la incidencia (10-15%) y los niveles más bajos se dan en los países nórdicos (5%).
  • Las ‘leches vegetales’ son buenos sustitutos de la leche de vaca. Las bebidas vegetales no tienen las mismas propiedades que las leches de origen animal. Los lácteos contienen proteínas de un elevado valor biológico, muchas más vitaminas, calcio y otros micronutrientes, además de una mejor biodisponibilidad (son fácilmente asimilables por el organismo). Incluso UNICEF elaboró un informe en el que solicitó la eliminación de este término (leche) para las bebidas vegetales, y la Autoridad Europea de Seguridad Alimentaria (EFSA) se ha pronunciado recientemente sobre este asunto, ya que puede confundir al consumidor.

    Surtido de bebidas vegetales./Amodo

  • La leche engorda. La grasa de la leche no es la responsable de la obesidad. Como todo lo que ingerimos, los excesos aumentan el riesgo de subir de peso. Lo recomendable es consumir entre 2 y 4 lácteos al día, y que la mayor ingesta se produzca en la infancia y adolescencia, así como en el embarazo, durante la lactancia y en personas mayores para compensar algún déficit nutricional.
  • La leche sube el colesterol. Aunque la leche entera y los productos lácteos con elevado contenido graso podrían aumentar los niveles de colesterol total, su consumo tiene un efecto muy pequeño sobre el aumento del colesterol malo. De hecho, se ha demostrado que el riesgo de contraer una enfermedad cardiovascular es menor en individuos que consumen leche, debido al aumento del colesterol bueno favorecido por el tipo de ácidos grasos de la leche, y por la presencia de derivados de sus proteínas, que tienen incluso un efecto hipotensor.

La población española está disminuyendo de forma preocupante la ingesta de calcio y vitamina D. La leche tiene un alto contenido de estos nutrientes y su bajo consumo puede contribuir a un mayor riesgo de osteoporosis en la edad adulta. Actualmente el 40-60% de la población española no alcanza las ingestas diarias recomendadas de calcio, mientras que en el caso de la vitamina D esa cifra se eleva al 80%.

Se sugiere consumir entre 2 y 4 lácteos al día. / Pezibear

La leche es la principal y mejor fuente dietética de calcio, tanto por los altos niveles de este mineral en su composición, como por su elevada biodisponibilidad, que facilita la absorción de este micronutriente.

En ciertos colectivos especialmente vulnerables (niños, adolescentes, adultos mayores inactivos, mujeres embarazadas y postmenopáusicas, deportistas o fumadores), la mejor opción es consumir leches enriquecidas en calcio y vitamina D para mejorar su perfil nutricional.

* Ascensión Marcos es Directora del Grupo de Inmunonutrición del Dpto. de Metabolismo y Nutrición en el Instituto de Ciencia y Tecnología de los Alimentos y Nutrición (ICTAN) y Presidenta de la Federación Española de Sociedades de Nutrición, Alimentación y Dietética (FESNAD).

¿Influyen nuestras bacterias en la forma en que nos comportamos?

Por Mar Gulis (CSIC)

Imagina un villano que logra controlar la voluntad de la gente mediante la manipulación de su microbiota intestinal, es decir, el conjunto de microorganismos –en su mayoría bacterias– que habitan en nuestro intestino y nos ayudan a digerir los alimentos. Tore Midtvedt, del Instituto Karolinska de Estocolmo, sugirió en clave de humor que éste podría ser el argumento de una novela negra. Cuentan la anécdota Carmen Peláez y Teresa Requena, investigadoras del CSIC, en su libro La microbiota intestinal (CSIC-Catarata). Tal y como señalan en la obra, hoy existe un creciente interés en torno a ese fascinante eje cerebro-intestino-microbiota.

Una parte de la comunidad científica está investigando la relación bidireccional que se da entre la microbiota y el funcionamiento del cerebro o incluso nuestros comportamientos. Se trata de un campo sumamente interesante, pero también muy complejo. La pregunta que espera respuesta es “si podemos conceder a los microorganismos cierto papel como participantes en nuestra inconsciencia”, que a su vez imperceptiblemente puede dictar nuestra conducta, señalan Peláez y Requena.

Las investigadoras recogen en el libro algunos ejemplos de esta tesis. John Cryan y Timothy Dinan, de la Universidad de Cork (Irlanda), sostienen que “las bacterias influyen en nuestro comportamiento alimentario”. Desde esta perspectiva, “la microbiota lanzaría alguna señal al cerebro para informarle de que le aporte tal o cual tipo de nutrientes, que son los que habitualmente ingerimos y a los que se ha adaptado su metabolismo”. Es más, el que nos apetezcan determinados alimentos se debe a la ‘expectativa de recompensa’ (el placer anticipado que nos aporta la elección), algo que depende de los niveles de dopamina en el cerebro. Y precisamente “algunas bacterias como H. pylori modulan la producción de dopamina y, por tanto, los niveles de recompensa. ¿Estaría esta bacteria del estómago diciéndonos qué es lo que nos apetece comer?”, se preguntan las investigadoras.

Helicobacter Pylori es una de las bacterias que habitan en nuestro estómago KGH / Wikipedia

Pero las relaciones entre el cerebro y la microbiota pueden ser más sofisticadas. Algunos autores consideran que esos millones de microorganismos serían capaces de manipular otros comportamientos. Por ejemplo, “influir en nuestro estado de ánimo a través de la serotonina, conocida como hormona de la felicidad, o tener el papel contrario y producir malestar o incluso dolor”. Peláez y Requena aluden a estudios recientes que han vinculado el estrés de los recién nacidos que sufren de cólicos con un desequilibrio intestinal producido por una pérdida de diversidad bacteriana.

Y aún más sorprendente es la siguiente hipótesis que plantean: la posibilidad de que las bacterias puedan manipular los comportamientos sociales, es decir, “nuestras preferencias para relacionarnos incluso sexualmente o para vivir en grupos sociales”. Las investigadoras se refieren a la mosca del vinagre, un insecto que, a la hora de aparearse, parece estar influido por la bacteria Lactobacillus plantarum, ubicada en su tracto intestinal. “Aparentemente esta bacteria produce metabolitos a partir de la fermentación del almidón que ingiere la mosca y que inducen la producción de feromonas, influyendo así en sus preferencias sexuales de apareamiento al solo elegir moscas que también ingieren almidón. Podríamos decir que la bacteria ayuda a la mosca a buscar pareja y, además, una pareja con sus mismos gustos alimentarios”.

Ahora bien, ¿se pueden extrapolar estas teorías a los seres humanos? Según algunos expertos, sí. Concretamente, las investigadoras citan a Michael Lombardo, de la Universidad Grand Valley (EE UU). Este autor defiende que la evolución de los seres vivos invertebrados y vertebrados hacia el comportamiento gregario y social “no ha respondido solo a la necesidad común de defensa, optimización de recursos alimentarios o crianza de la prole. Podría existir también otro factor más sutil como la necesidad de transmisión interindividual de una microbiota beneficiosa que aporta múltiples beneficios”.

Peláez y Requena coinciden en que, teniendo en cuenta los beneficios nutricionales y protectores que la microbiota intestinal nos aporta y la facilidad de transmisión vertical y horizontal en el ámbito familiar y social, estas teorías también pueden ser válidas para la especie humana. No obstante, advierten, “aún hay que profundizar en los mecanismos concretos por los que la microbiota afecta a la salud humana y a nuestro comportamiento”.

¿Sabías que el flash de tu cámara puede ayudar a detectar el cáncer de retina?

Por Mar Gulis (CSIC)

Cualquiera se ha encontrado alguna vez una foto en la que los retratados aparecen con un par de círculos rojos en los ojos. Este molesto fenómeno, que ocurre cuando utilizamos el flash, tiene su origen en la fisiología del ojo y en el comportamiento de la luz, y por extraño que parezca puede utilizarse para detectar un tipo cáncer de retina, el retinoblastoma.

Efecto 'ojo rojo' en la pupila. / Liam Welch vía Unsplash.

Pupila con ‘ojo rojo’. / L. Welch vía Unsplash.

Empecemos por el principio. ¿Por qué se produce el ‘efecto ojos rojos’? Sergio Barbero, investigador del CSIC en el Instituto de Óptica, explica que la luz entra en nuestros ojos a través de la pupila, “que es el equivalente al diafragma en una cámara de fotos”. Así, cuando hay mucha luminosidad en el ambiente, la pupila se contrae para evitar el daño de un exceso de luz, mientras que si ocurre lo contrario se dilata para permitir la visión.

Tras atravesar la pupila, la luz llega al fondo del ojo, donde se encuentran la retina y la coroides. “De toda la luz incidente en la retina, la mayor parte es transformada en señal eléctrica, lo que constituye el primer paso de la visión; sin embargo, una pequeña fracción atraviesa la retina y llega hasta la coroides, que está muy vascularizada porque su función es nutrir al ojo”, señala Barbero.

“La hemoglobina, presente en la sangre de los capilares de la coroides, absorbe los componentes azules de la luz incidente y emite hacia fuera luz de color rojizo”, prosigue. “Aunque este fenómeno está siempre presente, solo es perceptible si la cantidad de luz que penetra en el ojo es lo suficientemente grande: esto ocurre cuando en el ojo entra un haz de luz repentino (por ejemplo, el flash de una cámara) en un momento en que la pupila está dilatada (en un ambiente de oscuridad)”, aclara el investigador.

Funcionamiento del fenómeno 'ojos rojos'. / Photokonnexion

Esquema del efecto ‘ojos rojos’. / Photokonnexion

En la actualidad el ‘efecto ojos rojos’ ha sido solucionado gracias a la incorporación de un segundo flash, que se dispara a la vez que se abre el diafragma de la cámara, justo inmediatamente después del primero. De esta forma, la luz del segundo flash impacta ya sobre el músculo contraído, lo cual elimina casi por completo este antiestético efecto.

Hoy, el modo ‘anti ojos rojos’ viene de serie en la mayoría de las cámaras. Sin embargo, será necesario desactivarlo si pretendemos utilizar nuestro flash como método de detección del retinoblastoma, un tumor canceroso que se desarrolla en la retina causado por la mutación en una proteína. Este tipo de tumor aparece mayoritariamente en niños pequeños y representa un 3% de los cánceres padecidos por menores de quince años.

Cuando el retinoblastoma se sitúa en los vasos sanguíneos del ojo actúa como una muralla ante el efecto del flash, lo que impide que se vea el destello rojo en ese ojo o hace que aparezca uno blanquecino. Por eso, una foto puede ‘chivarnos’ esta patología. MedlinePlus, el servicio online de la Biblioteca Nacional de Medicina de los Estados Unidos, recoge que, si la persona fotografiada aparece solo con un ojo rojo o con uno de color blanquecino, esto podría ser una señal de presencia del tumor, por lo que se debería acudir al médico.

Carteles de la campaña de prevención del retinoblastoma. / Childhood Eye Cancer Trust

Carteles de la campaña de prevención del retinoblastoma. / Childhood Eye Cancer Trust

De hecho, Childhood Eye Cancer Trust, una fundación de ayuda contra el retinoblastoma, lanzó hace un par de años una campaña de prevención basada en este efecto. La entidad colocó carteles interactivos en varias ciudades con imágenes de ojos de niños con la característica de que, si se realizaba una foto con flash sobre estas, la pupila cambiaba y reflejaba uno de los posibles síntomas.

La campaña intentaba que los padres hicieran la prueba con sus hijos. Sin embargo, si alguien se decide a seguir el consejo, debe tener claro que la fotografía no basta para tener un diagnóstico concluyente: la presencia del retinoblastoma solo puede ser confirmada por profesionales médicos mediante pruebas adicionales y exámenes.

¿Habría corrido Ramón y Cajal la Carrera de la Ciencia este domingo?

Por Mar Gulis (CSIC)

Desde bien pequeño, Ramón y Cajal (1852-1934) sintió una precoz obsesión por la actividad física y por destacar entre sus iguales. Mostraba un enérgico empeño por ser el más fuerte, el más ágil, el más fornido. Dado que su entorno era favorable para este fervor por la aventura (nació en un remoto caserío en Petilla de Aragón), desde su niñez pudo dar rienda suelta a ese ansia de exploración de la naturaleza y la montaña, inquietud vital que dejó plasmada en numerosos escritos.

Dibujo de Santiago Ramón y Cajal realizado en 1904. Muestra las neuronas de la corteza cerebral. / Instituto Cajal del CSIC

Dibujo de Santiago Ramón y Cajal realizado en 1904. Muestra las neuronas de la corteza cerebral. / Instituto Cajal del CSIC

Poco conocida es esta vertiente aventurera del premio Nobel de Medicina en 1906. Sin embargo, esta faceta deportista influyó en el devenir de su vida, y no es de extrañar que su habilidad para la ciencia se viera favorecida por su curiosidad y su afición por el medio ambiente y la belleza que emana del entorno natural. No en vano, su especialidad fue el sistema nervioso y la anatomía patológica, y destacó también su lado más estético y artístico, en especial el dibujo. Su obsesión por el riesgo, la montaña y el ejercicio físico (él mismo llegó a denominarla “manía gimnástica”), llevando al cuerpo a situaciones límite, le ayudó también a reponer su maltrecha salud tras sufrir enfermedades como la malaria y la disentería.

Son muchos los investigadores e investigadoras que compaginan la satisfacción por el deporte con la pasión por la ciencia. Una de las citas ineludibles de los aficionados al atletismo y las carreras populares es la Carrera de la Ciencia del CSIC.

Cartel de la XXXVI Carrera de la Ciencia

Cartel de la XXXVI Carrera de la Ciencia 2016

Como todos los años, miles de personas participarán en Madrid este domingo 16 de octubre en un evento que celebra con esta su 36ª edición. Un circuito urbano de 10 kilómetros, que discurrirá por grandes avenidas y lugares emblemáticos como Recoletos, el Paseo de la Castellana o la calle Serrano, será el escenario de la XXXVI Carrera de la Ciencia ICON.

Esta iniciativa del CSIC tiene sus orígenes en una carrera cross-country celebrada en 1925 que formó parte del concurso atlético de la Residencia de Estudiantes. Ya entonces, discípulos de las ideas pedagógicas de la Institución Libre de Enseñanza recorrieron 3.000 metros por los lugares donde se celebra actualmente la prueba.

No sabemos si Santiago Ramón y Cajal habría participado en esta carrera, pero sí que cada año la corren miles de personas, muchas de ellas dedicadas a la ciencia. El punto de partida será el número 117 de la madrileña calle Serrano –sede central de la institución–, donde los corredores se congregarán a las 9:00 para comenzar el recorrido.

Un año más, la Carrera vuelve a sumarse a la campaña solidaria Kilómetros por alimentos (#KmsXalimentos). Todos los participantes podrán aportar kilos de comida, no perecedera y debidamente envasada, que irán destinados al Banco de Alimentos de Madrid.

El único requisito para participar en la Carrera de la Ciencia es ser mayor de edad. Así que, si esta vez se te ha pasado la fecha para apuntarte, la edición del próximo año te espera.

¡A correr!

¿Existen personas resistentes al VIH?

Por Beatriz Pacheco (CSIC)*B. Pacheco

Como comentábamos en el post anterior, los virus de la inmunodeficiencia humana (VIH-1 y VIH-2) provienen de la transmisión a los humanos de unos virus muy parecidos: los virus de la inmunodeficiencia de simios (SIVs), que infectan determinadas especies de monos africanos. En su huésped natural los SIVs no suelen causar enfermedad. Sin embargo, cuando uno de estos virus salta de una especie a otra sí puede hacerlo. Esto es lo que ocurrió, por ejemplo, con el virus que infecta macacos (SIVmac) y el VIH que infecta humanos. ¿Por qué en su huésped natural los SIVs no causan inmunodeficiencia y en los humanos el VIH sí causa enfermedad? Para responder esta pregunta, los científicos tratamos de entender la patogénesis del virus y los mecanismos de transmisión entre especies.

Diversos estudios han confirmado una coevolución entre los virus y sus huéspedes naturales. Cuando un virus salta a una nueva especie y consigue establecerse y transmitirse produciendo alguna enfermedad grave, la selección natural tenderá a seleccionar los individuos más resistentes a este virus. Por su parte, el virus tenderá a evolucionar para escapar del sistema inmune del huésped. En esta batalla por la supervivencia existen varios escenarios posibles. Podría ocurrir que el virus llegase a eliminar a la nueva especie (esto es lo menos probable). Otra posibilidad es que la nueva especie evolucione hasta hacerse completamente resistente al virus y lo elimine. Sin embargo, lo más probable es que el virus y el huésped coevolucionen y, tras muchos años de coexistencia, se llegue a una situación de tablas en la cual ambos coexistan sin causarse mucho daño mutuo. El patógeno se habrá adaptado para evadir parcialmente el sistema inmune del huésped (y establecer una infección), pero a cambio habrá perdido patogenicidad (no causará una enfermedad grave). Para el virus (patógeno) esta situación puede ser más beneficiosa que matar a su huésped o causarle una enfermedad grave, pues esto podría llevar a la eliminación del mismo y a la selección de individuos más resistentes.

Virus VIH. / Kanijoman. Flickr

Virus VIH. / Comunicación CSIC

Durante al menos 100.000 años los SIVs que infectan de forma endémica determinadas especies de monos africanos han estado conviviendo con sus huéspedes naturales. La selección natural ha llevado a esa situación de equilibrio en la que el SIV puede infectar estos primates sin causarles inmunodeficiencia. Sin embargo, nosotros sólo llevamos conviviendo con el VIH aproximadamente un siglo, que a nivel evolutivo no es mucho tiempo. Si dejásemos al virus del SIDA evolucionar por su cuenta durante muchos años, probablemente llegaría un momento en que, como ocurre en otros primates, la infección por HIV en humanos sería asintomática o casi asintomática, convirtiéndose en una infección crónica (como la causada por el virus del herpes simple). Por un lado, la selección natural en humanos favorecería a aquellos individuos con mayor resistencia al virus. Por otro lado, los virus con patogenicidad atenuada podrían verse beneficiados frente a otros más patógenos, ya que al no matar a su huésped tendrían más oportunidades de transmitirse a uno nuevo. Sin embargo, nosotros no vamos a esperar a que esa adaptación tenga lugar.

La pregunta es: ¿existen personas completamente resistentes al VIH? Probablemente no. Pero sí sabemos que hay individuos más resistentes a la infección por VIH, que tienen menos probabilidades de infectarse con el virus en caso de exposición al mismo, o que si se llegan a infectar no desarrollan síntomas de SIDA en ausencia de tratamiento. Numerosos estudios han investigado los mecanismos responsables de esta resistencia parcial al VIH y en algunos casos se han descubierto los factores implicados.

Para entrar en la célula, el VIH necesita utilizar un receptor llamado CD4 y un correceptor, que puede ser CCR5 o CXCR4. Hay personas que tienen una mutación (Δ32) en las dos copias del gen que codifica la proteína CCR5; esa mutación produce un CCR5 con una deleción en uno de sus extremos (es decir, a la proteína le falta un trozo). Como el VIH no es capaz de utilizar ese CCR5 más corto, los individuos con esta mutación son resistentes a las cepas de virus que necesitan esa proteína para entrar en las células y replicarse, que son la mayor parte de los virus circulantes. También hay personas infectadas por el VIH pero que en ausencia de tratamiento son capaces de mantener la carga viral a niveles muy bajos o incluso indetectables, y que no desarrollan SIDA. Pero desafortunadamente representan un porcentaje muy bajo de la población infectada. Los motivos de esta mayor resistencia intrínseca al virus parecen ser heterogéneos. A veces simplemente estos individuos se han infectado por cepas menos virulentas (virus que tienen alguna mutación que hace que sean menos patogénicos). Otras veces se debe a factores intrínsecos del sistema inmune innato de estos individuos. Y en algunos casos aún se desconocen los motivos.

Tití común (Callithrix jacchus). Laszlo Ilyes/Flickr

Tití común (Callithrix jacchus) / Laszlo Ilyes. Flickr

Estudiar los factores responsables de la resistencia natural frente al SIV en ciertos primates, así como la capacidad de algunas personas de controlar la infección por VIH, podría abrir el camino al desarrollo de nuevas terapias que permitan eliminar el virus en pacientes infectados o evitar nuevas infecciones.

Hasta la fecha no se ha identificado ningún virus similar al VIH o SIV que infecte de modo natural a monos de Latinoamérica, que parecen resistentes a ellos. Uno de ellos es el tití común. En la actualidad estamos estudiando a qué se debe su resistencia natural a la infección por VIH-1. Hemos visto que en sus linfocitos (las células diana del VIH) existen múltiples bloqueos a la replicación del virus. Nuestro proyecto ‘Innate intracellular blocks to HIV-1 in New World monkeys’ se centra en identificar y caracterizar los factores (proteínas celulares) responsables de estos bloqueos.

 

* Beatriz Pacheco trabaja como investigadora en el Centro de Biología Molecular “Severo Ochoa” gracias a un contrato JAE-Doc cofinanciado por el Fondo Social Europeo. Su proyecto de investigación está financiado por el 7º Programa Marco de la UE a través de un Marie-Curie Creer Integration Grant (grant agreement number 332623).

¿Se puede prevenir el alzhéimer?

Por Ana Martínez (CSIC)*

Bastidores con bordados de anatomía cerebral. / Hey Paul Studios. Flickr

Bastidores con bordados de anatomía cerebral. / Hey Paul Studios. Flickr

No existe una única causa conocida que provoque la enfermedad de Alzheimer, por lo que es difícil establecer las pautas para una prevención real e infalible de este trastorno. Sin embargo, sí existen algunos consejos de los especialistas para mejorar nuestro estado físico y mental y hacer frente al deterioro cognitivo.

Las recomendaciones más extendidas se centran fundamentalmente en dos puntos clave: en la detección precoz de los primeros síntomas, y en ejercitar la memoria y la función intelectual. Aprovechando que hoy, 21 de septiembre, se celebra el Día mundial del alzhéimer, fecha instituida por la Organización Mundial de la Salud (OMS), hagamos un breve repaso por algunos de estos hábitos saludables que pueden contribuir en la prevención de este mal u otras dolencias neurodegenerativas:

EJERCICIO MENTAL

Existe evidencia de que las personas que ejercitan su mente regularmente tienen una menor posibilidad de sufrir esta enfermedad que quienes no lo hacen. El ajedrez, los sudokus o los crucigramas pueden ser aliados en la lucha contra el deterioro cognitivo. También se están desarrollando juegos de ordenador específicos cuyo objetivo es el entrenamiento mental.

EJERCICIO FÍSICO

Algunos estudios indican que, incluso realizado en cantidades modestas, el ejercicio físico regular ayuda en la prevención del alzhéimer. Por ejemplo, en un trabajo reciente se encontró que caminar unos 15 minutos tres veces por semana, montar en bicicleta o algunos ejercicios de estiramiento reducen el riesgo de desarrollar esta enfermedad en más de un 30%. Otras investigaciones parecen demostrar que el ejercicio regular aumenta la capacidad para recordar secuencias numéricas, usar el pensamiento abstracto, hacer cálculos y comprender nuevos conceptos, además de contribuir a sentirse más fuertes y enérgicos. La clave parece estar en la capacidad que tiene el ejercicio para aumentar el flujo de oxígeno al cerebro, cosa que según muchos fisiólogos incrementa la función cerebral y mejora la circulación de la sangre, de manera que se previenen las obstrucciones de los vasos sanguíneos.

ALIMENTACIÓN

Además de la importancia de las antioxidantes vitaminas E (frutos secos, semillas, cereales, hortalizas de hoja verde…) y C (cítricos, brócoli, fresas, pimientos…), varios estudios tienden a demostrar que una deficiencia de un ácido graso del tipo omega-3 (ácido docosohexaenoico-DHA) se asocia con el riesgo de padecer enfermedad de Alzheimer. Así, algunos trabajos ponen de manifiesto la importancia de ingerir pescado azul, como la sardina, el salmón y el atún, ricos en el ácido graso omega-3 DHA. También parece ser beneficiosa la ingesta de alimentos ricos en ácido fólico y vitaminas B6 y B12 (vegetales de hojas verdes oscuras, cítricos, pan integral, legumbres, frutos secos…). Otros estudios llevados a cabo con ratones sugieren que la curcumina, pigmento amarillo que le da color al curry, ayuda a reducir la incidencia de esta enfermedad. También la soja parece ser beneficiosa. Debido a sus propiedades antioxidantes, el zumo de uva y los arándanos contribuyen, según otros trabajos, a prevenir el deterioro celular y, por tanto, a retardar los cambios cerebrales ocurridos en la vejez.

El hábito de mantener una dieta equilibrada, baja en grasas, protege frente al deterioro cognitivo. / Moyan Brenn. Flickr

El hábito de mantener una dieta equilibrada, baja en grasas, protege frente al deterioro cognitivo. / Moyan Brenn. Flickr

En general, es recomendable el consumo de frutas, debido sobre todo a sus polifenoles, que parecen prevenir la formación de placas amiloides (placas seniles que se forman en el tejido cerebral y que se consideran desencadenantes del mal de Alzheimer, ya que se relacionan con la degeneración de las estructuras neuronales). A falta de más estudios, los que hay hasta el momento indican que ciertas plantas medicinales como el ginkgo biloba, el té negro o el té verde tienen cualidades antioxidantes, por lo que también podrían ayudar en la prevención de esta enfermedad.

En resumen, la dieta mediterránea podría reducir el riesgo de padecer alzhéimer, ya que el hábito de mantener una dieta equilibrada, baja en grasas, protege frente al deterioro cognitivo. Aceite de oliva, fruta, verdura, legumbres, cereales, pescado, un poco de alcohol y una cantidad reducida de lácteos y carne roja… La dieta mediterránea se asocia con un menor riesgo de desarrollar enfermedades cardiovasculares y con niveles más bajos de estrés oxidativo e inflamaciones, condiciones que a su vez se han relacionado con el desarrollo del alzhéimer.

* Ana Martínez es investigadora en el Centro de Investigaciones Biológicas del CSIC y experta en la enfermedad de Alzheimer. Este texto está basado en contenidos incluidos en su libro El Alzheimer de la colección ‘¿Qué sabemos de…?’ (CSIC y Catarata).

¿A qué volumen puedes escuchar música sin dañar tu oído?

Por Mar Gulis (CSIC)

zvzcvzcx

Más de 43 millones de jóvenes de entre 12 y 35 años padece alguna discapacidad auditiva / Flickr

Conciertos de rock, grandes eventos deportivos, noches discotequeras, viajes en metro amenizados con el móvil o el MP3… En estas y otras muchas situaciones sometemos al oído a un volumen de ruido considerable. A veces, un molesto zumbido posterior es la evidencia de que hemos saturado este preciado sentido. ¿Cómo saber cuáles son los límites aconsejables?

“Nuestro oído no está diseñado para recibir 100 decibelios (dB) dentro del tímpano”. Así de tajante es Isabel Varela-Nieto, experta en audición del Instituto de Investigaciones Biomédicas ‘Alberto Sols’ (CSIC-UAM). Sin embargo, el volumen de los dispositivos de audio personales, como los auriculares, puede oscilar entre los 75 y 136 dB a su capacidad máxima.

Más ejemplos: en discotecas y bares, los niveles medios de ruido rondan o incluso superan los 100 dB. Algo parecido sucede en las instalaciones deportivas, donde la horquilla fluctúa entre los 80 y los 116 dB.

Según las recomendaciones de la Organización Mundial de la Salud (OMS), si una persona permanece expuesta más de 15 minutos a estos niveles de ruido, sus oídos empiezan a sufrir. Otro dato: los expertos consideran que 85 dB durante un máximo de 8 horas es el límite de exposición sin riesgos que el ser humano puede asumir. Obviamente, a medida que la intensidad del sonido aumenta, el tiempo considerado como seguro disminuye.

zcvxzvxc

El tráfico en las ciudades a menudo genera un ruido que supera los decibelios aconsejables para la salud / Wikipedia

Varela explica que ya existen predicciones sobre cómo el ruido excesivo “adelantará la edad de aparición de la presbiacusia”, la pérdida de la audición asociada al envejecimiento. En la actualidad entre un 40-50% de la población mayor de 65 años se ve afectada por esta patología, pero la investigadora sostiene que la edad irá disminuyendo. “Dentro de poco hablaremos de los 40 o 50 años; esa intensidad de volumen causa daños en un órgano que está diseñado no para oír sonidos tan altos y tan cerca, sino para todo lo contrario: oír sonidos más bajos, que están lejos y que conviene identificar por si constituyen una amenaza o no”, argumenta. Precisamente la OMS ha alertado de que ya hay más de 43 millones de jóvenes de entre 12 y 35 años con discapacidades auditivas. Algunos especialistas incluso han acuñado la expresión ‘sordera del mp3’.

Además de la pérdida de calidad de vida que implica, estamos hablando de una patología que es irreversible. A diferencia de las aves y los reptiles, los mamíferos carecen de capacidad de regeneración: “Una vez que las células sensoriales ciliadas del oído, y las neuronas que las conectan al cerebro, se pierden, no pueden ser reemplazadas”, afirma Varela-Nieto en su libro La sordera (CSIC-Catarata). Así que no se trata de dejar de usar el MP3, pero sí de usarlo mejor: no superar los 60 o 70 dB -equivalentes al ruido que produce un aspirador- ni permanecer más de una hora seguida escuchando música puede ser un buen punto de partida.