Entradas etiquetadas como ‘medicina’

Pareidolia: en ocasiones veo caras

Por Miriam Caro y Emilio Tejera (CSIC)*

¿Quién no se ha tumbado sobre la hierba, en una apacible tarde de verano, y ha jugado a encontrar formas en las nubes? De igual manera, somos capaces de ver rostros, animales y otros elementos familiares en enchufes, casas o paisajes. Internet está lleno de imágenes de objetos con estas cualidades, pero los seres humanos llevamos estableciendo estas analogías visuales desde hace miles de años.

Roca ubicada en la isla volcánica de Heimaey, al sur de Islandia. / Diego Delso (delso.photo)

Nuestra tendencia a ver más de lo que realmente hay explicaría que el Dolmen de Menga, construido hace más de 5.650 años en la actual provincia de Málaga, se alce frente a la Peña de los Enamorados, con su forma de cabeza. También parece probable que los antiguos homínidos desenterrados en el yacimiento de Makapansgat, en Sudáfrica, se hayan dejado encandilar por un guijarro encontrado en esa zona que, de manera natural, se asemeja a un rostro humano.

Caras por doquier

La creación de este tipo de analogías visuales por nuestra mente se denomina pareidolia. Aunque en un principio se asoció a patologías mentales, hoy tenemos claro que es un comportamiento común en el ser humano desde una edad muy temprana. Es la base del famoso test de Rorschach, y también de los emoticonos. Se ha empleado en el arte, en educación y en medicina, y hay lugares turísticos que han alcanzado notoriedad gracias a él, como la Ciudad Encantada de Cuenca.

La neurociencia ha comprobado que mientras ocurre el fenómeno se activan las mismas áreas cerebrales que reconocen esas formas cuando son auténticas, aunque de una manera ligeramente más lenta que si los estímulos fuesen verdaderos. Los estudios confirman la sabiduría popular acerca de que cada persona evoca imágenes distintas, pero que esas percepciones se mantienen con el tiempo, aunque hayan tenido que señalárnoslas al principio. Compartimos esta capacidad con otras especies, y puede verse alterada por procesos como el embarazo, o en varios tipos de trastornos mentales y neurodegenerativos, lo cual podría contribuir a su tratamiento y diagnóstico.

El hecho de ver caras o formas en todo lo que nos rodea se explica porque nuestro cerebro está preparado para simplificar el entorno. Ya habló de ello la ley de la pregnancia de la Gestalt, según la cual la percepción tiende a adoptar las formas más sencillas posibles. Dentro de esta ley general, nos encontramos con las leyes particulares de proximidad, de cierre, de continuidad o de semejanza, que explicarían el porqué de la pareidolia. Los estudios parecen indicar que, en efecto, nuestras neuronas nos predisponen a “completar el dibujo”, y pueden detectar caras a partir de elementos aislados (sobre todo similares a ojos) más que de imágenes en conjunto, aunque muchos de estos aspectos aún se discuten.

Reconocer elementos sueltos como parte de un todo

La pareidolia forma parte de un concepto más amplio denominado apofenia, por el cual inferimos patrones a partir de datos aparentemente aleatorios. En realidad, sólo es una derivación de un fenómeno normal, y útil desde un punto de vista evolutivo: el ser humano tenía que ser capaz de detectar predadores a su alrededor a partir de sutiles percepciones en el entorno, como movimiento, sonido o algo parecido a unos ojos. Y esto explica que funcione tan bien para reconocer rostros, porque debíamos detectar al vuelo el estado mental de quien nos acompaña, para así decidir con rapidez cómo reaccionar.

Esto nos ha ayudado a sobrevivir, e incluso, más adelante, ha formado parte indeleble de algunas nociones culturales del ser humano: desde la creación de las constelaciones hasta la interpretación paranormal de determinados eventos. De hecho, la ciencia también se basa en ese mismo reconocimiento de patrones, con una salvedad: en lugar de creernos lo que, a primera vista, sugieren nuestras impresiones al relacionar ciertos sucesos (origen de buena parte de las teorías de la conspiración), nos dedicamos a comprobar si las conexiones que genera nuestra mente tienen algún fundamento real.

Vivienda en la ciudad de Sibiu, en Transilvania (Rumanía) / Helena Tejera Puente

En el cuento Funes el memorioso, Borges habla de un hombre con una memoria tan exacta que, para él, era distinto un perro de frente que uno de perfil. Eso le impedía ejercer la capacidad de abstracción y, por tanto, le hacía imposible pensar. La pareidolia, en el fondo, forma parte de lo mismo que nos hace interpretar los símbolos más primitivos (entre ellos los jeroglíficos, o ciertos motivos del arte rupestre) y, por tanto, tiene que ver con mucho de lo que ha sustentado nuestra civilización. Así que, la próxima vez que veas una oveja en una nube, no la desprecies: es más real de lo que parece.

*Miriam Caro y Emilio Tejera son miembros de la Unidad de Biología Molecular del Instituto Cajal (CSIC).

“¿Qué me pasa, doctor?” La visita médica a finales de la Edad Media y principios de la Moderna

Por Raúl Villagrasa-Elías (CSIC)

Marie Curie y el radio, Wilhelm C. Röntgen y los rayos X y Alexander Fleming y la penicilina son algunos de los descubrimientos que vertebran la historia de la ciencia y la medicina. Nos fascina imaginar que la historia es una acumulación de esfuerzos individuales (la mayoría de varones ilustres) cuya suma fundamenta el progreso. Suelen ser inventos trascendentales que marcan un antes y un después. Ocurre lo mismo cuando miramos hacia atrás en el tiempo y analizamos episodios como la caída del Imperio romano, la peste negra, la imprenta, la conquista de América, las guerras mundiales…

¿Y si algunos de los fenómenos más trascendentales de nuestra sociedad fueron progresivos y comunitarios? La democratización, la industrialización y la alfabetización de un país no se consiguen en un día. La conformación del sistema sanitario tampoco y precisamente en eso vamos a fijarnos en este viaje en el tiempo, en una escena que seguramente todo el mundo (salvando la distancia temporal) habrá experimentado en sus propias carnes y, si no, en las de algún familiar o amigo. Así era una visita médica hospitalaria a finales de la Edad Media.

El hospital, un “invento” medieval para las personas pobres

Documentamos los primeros hospitales de la península ibérica en los siglos XI y XII y, sin exagerar, podemos afirmar que ya en los siglos XIV, XV y XVI hubo varios cientos de ellos. A diferencia de lo que hoy imaginamos por hospital (instituciones sanitarias enormes con centenares de pacientes y profesionales), estos centros medievales solían ser edificios más pequeños (algunos tenían dos camas; los más grandes, varias decenas) y servían para atender a los enfermos pobres, por lo que reyes, obispos, nobles, ediles y grandes mercaderes rara vez aparecían por allí.

Puerta del Hospital de Santa Cruz en Toledo, fundado en 1496. Litografía de la Biblioteca Nacional de España (1842).

Pero, ¿quiénes eran las personas consideradas pobres? En aquellos siglos ser pobre era algo mucho más genérico de lo que entendemos ahora. Pobre era la anciana que quedaba viuda y sin hijos que la cuidaran; lo era el niño huérfano abandonado fruto de una relación extramatrimonial; el soldado que después de una guerra quedaba incapacitado; la trabajadora de la construcción que se caía de un andamio, o el campesino que contraía la lepra y necesitaba cuidados especiales. En definitiva, pobre era cualquier persona que, aun teniendo algo de dinero, no contaba con lazos sociales como la familia o los vecinos ante los vaivenes de la vida.

Ayer y hoy, más similitudes que diferencias

A finales de la Edad Media, las ciudades crecieron y con ellas el número de personas pobres también aumentó. Para hacer frente a esta emergencia social los gobiernos urbanos promovieron hospitales de mayores dimensiones y dotados con completos equipos profesionales: médicos (conocidos como físicos en la época), cirujanos, barberos, boticarios, enfermeros y enfermeras, nodrizas, capellanes para la cura del espíritu y todo un sinfín de criados y esclavos que se encargaban de las tareas más pesadas.

Consecuencia de lo anterior, a finales de la Edad Media y en el tránsito hacia la Moderna, se institucionalizaron los sistemas sanitarios y, por extensión, la visita médica hospitalaria. Y, en realidad, si eliminamos los aparatos electrónicos que hoy encontramos en una planta de cualquier hospital, el funcionamiento ya era el mismo. Las mujeres enfermas estaban separadas de los hombres (hoy difícilmente encontraremos habitaciones mixtas), las camas estaban numeradas para reconocerlas rápidamente y en el hospital zaragozano de Santa María de Gracia en 1508 ya se colocaban tablillas al lado de cada una para identificar a los pacientes y sus medicamentos.

Una plantilla completa, coordinada y jerarquizada

Los físicos o médicos eran el personal con mayor responsabilidad, salario y formación. El hospital de la villa aragonesa de Híjar ya contaba en 1312 con un “físico cristiano o judío que sabía de medicina”. Estos profesionales valoraban, sobre todo, las enfermedades internas del cuerpo como fiebres o dolores estomacales. Interrogaban al enfermo sobre su estado, auscultaban sus pulsos, comprobaban las orinas y revisaban los tratamientos prescritos el día anterior.

Cirujano colocando un brazo dislocado, 1450. Autor desconocido. Francia.

Por otra parte, los cirujanos (a veces conocidos como barberos-cirujanos) practicaban su arte sobre tejidos, articulaciones y huesos: muelas, heridas, amputaciones, luxaciones, fracturas, etc. Una sanadora musulmana fue contratada en Valencia en 1396 para curar el brazo de un niño pequeño, ya que el médico del hospital no había podido hacerlo. Ambos, médicos y cirujanos, debían “ordenar las mediçinas y emplastos” y “dar las reçetas d’ello al rector del dicho hospital para que lo faga façer”, según las ordenanzas del hospital de Tordesillas (Valladolid) de 1467.

Inmediatamente después encontrábamos en el escalafón sanitario a la persona encargada de supervisar la enfermería, que era el enfermero mayor y tenía a su cargo a las enfermeras y enfermeros menores, quienes velaban día y noche al doliente, le ayudaban en la ingesta de alimentos, limpiaban las sábanas y aplicaban los tratamientos prescritos por médicos y cirujanos con productos farmacéuticos elaborados por los boticarios. En algunos hospitales conocemos incluso las ratios teóricas entre enfermeros y pacientes: en Ávila en 1507 lo ideal era una relación de 1 a 6, mientras que en Toledo en 1499 ascendía a 8. Desde luego, son cifras más asequibles que las actuales, con un profesional de enfermería por 15-20 pacientes en hospitales o 150-200 en residencias de mayores.

Así pues, la imagen que tendría el enfermo no sería muy diferente a la actual: postrado en el lecho observaría cómo dos, tres o cuatro personas le rodeaban e inspeccionaban, en definitiva, un equipo sanitario que curaba y cuidaba.

Raúl Villagrasa-Elías es investigador en el Departamento de Estudios Medievales del Instituto de Historia del Centro de Ciencias Humanas y Sociales del CSIC. Actualmente trabaja en el proyecto Scripta manent: De registros privados a textos públicos. Un archivo medieval en la Red” (PID2020-116104RB-I00).

‘Top models’ de la ciencia: descubre a los seres vivos más utilizados en el laboratorio

Por Mar Gulis (CSIC)

Entre probetas, microscopios o tubos de ensayo, camuflados o a la vista, podrías encontrarlos en cualquier parte de un laboratorio. Hablamos de una bacteria del intestino humano, de la mosca de la fruta y del ratón; tres especies en principio poco llamativas, o incluso molestas. Sin embargo, la ciencia utiliza estos ‘bichitos’ como modelos de los seres vivos desde hace años. Gracias a ellos, se han hecho importantes descubrimientos sobre los mecanismos de la vida o diseñado tratamientos contra el cáncer. Te invitamos a conocer desde tu casa a estos ‘top model’ de la investigación, que forman parte de la exposición virtual del CSIC Seres modélicos. Entre la naturaleza y el laboratorio.

1. La bacteria que se volvió famosa por cambiar la biología

Aunque a simple vista sea inapreciable, la bacteria Escherichia coli es la más conocida en los laboratorios. Inicialmente se llamó Bacterium coli por ser la bacteria común del colón. Comenzó a estudiarse por las infecciones que causaba, pero a mediados del siglo XX se convirtió en modelo biológico gracias a su estructura sencilla, rápido crecimiento y los medios empleados para su cultivo, que aumentaron las posibilidades experimentales. Su utilización permitió hallar algunos de los principios básicos de la vida, pero E. coli alcanzó el estrellato con el descubrimiento de la técnica de ‘corta y pega’ del ADN, en la cual se usan enzimas para quitar e insertar segmentos de código genético y que supuso el inicio de la ingeniería genética. Hoy en día se emplea en la selección de genes concretos, estudiados posteriormente en otros organismos más complejos.

Micrografía electrónica de Escherichia coli a 10.000 aumentos.

Esta bacteria sabe mucho de los seres humanos. El genoma de E. coli, compuesto por cerca de 4.300 genes, contiene una séptima parte de nuestros genes. Además, habita en el intestino humano, donde forma parte junto a cientos de especies de la mibrobiota intestinal –también conocida como flora intestinal–, que cumple un papel fundamental en la digestión y en la defensa frente a patógenos.

E. coli es un instrumento más del laboratorio. El interés de su investigación reside todavía en las infecciones, ya que cada vez existe una mayor resistencia a los antibióticos, pero también en los mecanismos que se ponen en marcha al dividirse la célula, y cuyo mejor conocimiento permitiría diseñar, con ayuda de técnicas genómicas, fármacos con menor resistencia.

2. ¿Cómo conseguir la apariencia de una mosca?

Imagina lo molesto que resulta el zumbido de una mosca al merodear por nuestras cabezas. A partir de ahora puede que cambies de opinión cuando descubras que las moscas del vinagre o de la fruta (Drosophila melanogaster) son usadas como modelo en biología animal. Es habitual verlas en cualquier lugar, pero son más abundantes en terrenos agrícolas, cuando hace buen tiempo y, desde hace más de un siglo (esta especie se estudió por primera vez en 1901), también en los laboratorios. Saber de la mosca significa saber del ser humano porque ha sido clave en investigaciones sobre enfermedades neurodegenerativas, tumores y metástasis.

Visión dorsal y lateral de un macho y una hembra de Drosophila melanogaster. / Benjamin Prud’homme. Institut de Biologie du Développement de Marseille-Luminy. Parc Scientifique de Luminy.

Uno de los objetivos de su estudio es conocer cómo este pequeño insecto consigue su apariencia. La secuenciación de los genomas ha permitido determinar que la mayoría de genes de la mosca de la fruta son homólogos a los humanos. Por tanto, investigando los genes de esta mosca, que es un modelo de experimentación mucho más simple, se puede tener una idea de la acción de los genes en los humanos.

Sin duda su filón para la genética es más que evidente, y no solo porque el genoma de la mosca del vinagre alberga alrededor de 13.600 genes, un tercio de los que contiene el genoma humano. Además, a partir de cruces entre más de 100 tipos de moscas, el investigador Thomas H. Morgan (1866-1945) estableció que los caracteres se encuentran en los cromosomas y se heredan de generación en generación. Con ello dio lugar a la teoría cromosómica de la herencia, que le hizo merecedor del Nobel de Medicina en 1933.

3. ¡Roedores en el laboratorio!

Llaman la atención por su par de dientes incisivos y por su minúsculo tamaño. Los encontrarás en bosques, en tu ciudad y, cómo no, en un laboratorio. Así son los ratones, o Mus musculus si atendemos a su nombre científico. Utilizados como objeto de experimentación, desde hace más de un siglo son piezas clave en el estudio de la diabetes, el cáncer o los trastornos neurológicos; incluso los misterios del cerebro se exploran antes en los ratones que en el ser humano. Entre la comunidad científica hay quien los llama ‘seres humanos de bolsillo’.

En el año 2002 se dio a conocer la secuencia de su genoma, la primera de un mamífero: con cerca de 30.000 genes, aproximadamente los mismos que nuestra especie, el 99% de estos tiene su homólogo humano. Además, en ellos se reproducen enfermedades humanas como la obesidad o el párkinson, se realizan pruebas de toxicidad y se ensayan terapias futuras con células madre o nuevos materiales. Estos experimentos se han podido llevar a cabo a partir de ratones transgénicos y knock outs, es decir, aquellos producidos con un gen inactivado en todas sus células. En todos los casos, se han utilizado solo ratones machos para evitar que las hormonas sexuales afecten a los resultados.

Foto publicitaria del Jackson Laboratory. De izquierda a derecha, George Woolley, Liane Brauch, C.C. Little, desconocido y W.L. Russell. Década de 1940. / Cortesía del Jackson Laboratory.

Cuando las voces en contra de la experimentación animal comenzaron a alzarse, la defensa de los ratones no formó parte de las primeras reivindicaciones. La regulación llegó al mundo de los roedores con normativas y protocolos a nivel europeo. En ellas se establece que se debe reemplazar al ratón por otro sistema cuando sea posible y reducir el número de individuos en la investigación, para evitar así el sufrimiento animal.

E. coli, la mosca del vinagre y el ratón son solo algunos de las especies más comunes utilizadas como modelo. La muestra Seres modélicos. Entre la naturaleza y el laboratorio, cuyos contenidos puedes consultar online y descargar en alta calidad desde casa, se ocupa también de organismos como la levadura de la cerveza, un gusano minúsculo del suelo, una hierba normal y corriente y un pez de acuario. Elaborada originalmente por la Delegación del CSIC en Cataluña y ampliada en el marco del proyecto de divulgación Ciudad Ciencia, la exposición se complementa con entrevistas a especialistas en cada uno de estos seres modelo.

Anfetaminas legales: ¿Qué fue del Katovit y otros medicamentos retirados?

Por Mar Gulis (CSIC)

¿Recuerdas el Bustaid, el Optalidón o el Katovit? “Te hacía sentir bien, servía para el malestar general y te ayudaba a comenzar el día con energía”, comentaba sobre el Optalidón un asistente al club de lectura sobre Cómo se fabrica un medicamento (Editorial CSIC – Los Libros de la Catarata), una publicación de Carmen Fernández y Nuria Campillo*. En este evento, celebrado en el marco del proyecto Ciencia en el Barrio con mayores y adolescentes, se habló, entre otras muchas cuestiones, sobre la retirada de este popular medicamento que en los ochenta se podía adquirir en farmacias sin receta médica.

Medicamentos derramados de una botella

En el caso del Bustaid o el Katovit, el principal motivo de su retirada fue el mecanismo de acción de las anfetaminas que contenían. / jcomp – Freepik

¿Un superventas que, de la noche a la mañana, deja de comercializarse? No solo ocurrió con el Optalidón (ahora distribuido con una composición diferente, en la que se ha eliminado el ácido barbitúrico). El Bustaid o el Katovit fueron otros medicamentos muy populares en los setenta y noventa respectivamente que terminaron por desaparecer de las farmacias, y no fueron los únicos. El denominador común de muchos de ellos era que en su composición contenían derivados de las anfetaminas.

Hace ya más de cien años que las anfetaminas llegaron a nuestras vidas. A lo largo de su historia, desde que, en 1887, el químico Lazăr Edeleanu sintetizara por primera vez la anfetamina y se comenzara a estudiar en los años treinta, este grupo de sustancias y sus usos han evolucionado. Las anfetaminas son aminas simpatomiméticas, una clase de droga con una fórmula química estructural semejante a la adrenalina que produce estimulación del sistema nervioso central (SNC). Pero, ¿por qué se retiraron ciertos medicamentos que las contenían?

La investigadora y directora del Instituto de Química Médica (IQM) del CSIC Ana Castro insiste en la importancia del mecanismo por el que los fármacos ejercen su acción terapéutica. Es fundamental conocer el mecanismo de acción de un fármaco para controlar los efectos colaterales de su uso. “Todo nuestro cuerpo está interconectado y en él se producen numerosos y complejos procesos biológicos”, explica la científica. Por ejemplo, un fármaco diseñado para actuar sobre una determinada diana terapéutica, probablemente tendrá implicaciones en otros sistemas biológicos relacionados con ella. Es por este motivo que hay que valorar los efectos secundarios de todos los medicamentos, sopesar los beneficios y riesgos de su puesta en el mercado, señala Castro. En el caso del Bustaid o el Katovit, fue el mecanismo de acción de las anfetaminas que contenían el principal motivo de su retirada.

Patricia Robledo, investigadora en la Universidad Pompeu Fabra y el Institut Hospital del Mar d’Investigacions Mèdiques, analiza en profundidad en su trabajo de investigación sobre las anfetaminas el mecanismo de acción de estas sustancias psicotrópicas que involucra a varios neurotransmisores como la dopamina, la serotonina, la adrenalina y la noradrenalina. Al consumir anfetaminas aumentan la dopamina y la serotonina, que regulan la sensación de apetito, provocando el efecto anorexígeno (supresión del apetito). También se libera noradrenalina, cuyos efectos son el incremento de la actividad motora y la disminución del cansancio, así como la taquicardia, la sudoración y la dificultad para orinar.

Las anfetaminas, además, originan un aumento de la presión arterial y la frecuencia cardiaca y, a nivel del SNC, este tipo de estupefacientes produce sensación de alerta, estimulación y mejoría del rendimiento intelectual, entre otros efectos. Sin embargo, tiene gran potencial de abuso, es decir, puede causar dependencia y, a medida que aumenta su consumo, aparece la tolerancia y la necesidad irresistible de consumo. También “es frecuente la aparición de cuadros psicóticos”, como apunta Robledo en su estudio.

Farmacovigilancia: el control de los medicamentos en el mercado

Si tomamos como ejemplo el Katovit de los años noventa, asociado a un complejo vitamínico, vemos que cada gragea contenía 10 miligramos de clorhidrato de prolintano. El prolintano, un estimulante central derivado de la dexanfetamina, fue uno de los principios activos que la Agencia Española de Medicamentos y Productos Sanitarios (AEMPS) prohibió en 2005 por diferentes problemas de seguridad.

Este organismo público es el encargado de garantizar a la sociedad la calidad, seguridad, eficacia y correcta información de los medicamentos y productos sanitarios. Por ello, el trabajo no finaliza tras el éxito de unos ensayos clínicos y la colocación del producto en el mercado. Para Castro, “los medicamentos son proyectos vivos y al ponerlos en las farmacias, la aventura no termina. De su uso en el contexto global podrán surgir nuevas observaciones clínicas que merezcan ser analizadas”. Así, la fase de la farmacovigilancia adquiere mucha importancia. De ella no es solo responsable la AEMPS, todas las compañías farmacéuticas cuentan con unidades de farmacovigilancia que controlan la eficiencia y la seguridad del fármaco.

Además de emitir notas informativas, de seguridad y alertas, la AEMPS también difunde informes de posicionamiento terapéutico. En 2017, publicó uno sobre el tratamiento de la narcolepsia donde recomendaba la utilización de un fármaco no anfetamínico, tan efectivo como los estimulantes del SNC en la reducción del sueño diurno, pero con menos efectos adversos y con bajo potencial de abuso.

En la actualidad, los productos derivados de las anfetaminas tienen dos vertientes: la de uso terapéutico y la de uso ilegal. Nos quedaremos con la primera, cuyas dos únicas indicaciones son el tratamiento de la narcolepsia y del déficit de atención infantil. “No nos podemos saltar los pasos y olvidar a los profesionales de la sanidad”, recuerda Castro, que apela a la responsabilidad del uso de cualquier medicamento.

 

*Carmen Fernández y Nuria Campillo son investigadoras del Centro de Investigaciones Biológicas (CIB), del CSIC, y autoras del libro Cómo se fabrica un medicamento (Editorial CSIC – Los Libros de la Catarata), de la colección ¿Qué sabemos de?

¿Sabes cuánto tarda un nuevo medicamento en llegar a tus manos?

Por Mar Gulis (CSIC)*

Hay que remontarse al siglo XVIII para dar con el origen de los ensayos clínicos. El cirujano escocés James Lind (1716-1794) decidió probar distintos remedios frente al escorbuto, enfermedad causada por la deficiencia en vitamina C. Así, tomó a doce pacientes, los dividió en parejas y aplicó una terapia distinta a cada una: vinagre, nuez moscada o agua de mar, entre otras sustancias. Al parecer, el resultado fue que se curaron los que recibieron cítricos, mientras que los que llevaban una dieta escasa o nula en frutas y verduras siguieron padeciendo ese mal. Con este experimento, mediante la planificación de diversas curas, se consiguió demostrar la más eficaz.

En el siglo XIX, el médico francés Pierre Charles Alexandre Louis (1787-1872) propuso un método numérico para cuantificar los resultados de la experimentación. Cien años más tarde, el epidemiólogo británico Bradford-Hill (1897-1991) encontró una fórmula que hacía comparables los distintos grupos de estudio y estableció los “criterios de causalidad”. En ese momento se inició la era moderna de los ensayos clínicos.

Se estima que son de diez a doce años de media lo que tarda en desarrollarse un nuevo medicamento

A pesar de que para entonces empezaba a adquirirse conciencia del valor de la investigación, no fue hasta los años setenta cuando empezó a considerarse esencial el estudio de la eficacia y la seguridad de un medicamento antes de su lanzamiento al mercado. El punto de inflexión se produjo en los años cincuenta, cuando la administración de la recientemente descubierta ‘talidomida’ produjo un efecto indeseado, ocasionando malformaciones en recién nacidos, y poniendo de manifiesto la necesidad de establecer una regulación.

Actualmente se estima que son de diez a doce años de media lo que tarda en desarrollarse un nuevo medicamento. Se trata de un largo y costoso proceso en el que el fármaco ha evolucionado, sorteando obstáculos, hasta su lanzamiento como producto final, cuando se convierte en el posible remedio para nuestras dolencias. En el libro Cómo se fabrica un medicamento (Editorial CSIC – Los Libros de la Catarata), las investigadoras del Centro de Investigaciones Biológicas del CSIC María del Carmen Fernández y Nuria E. Campillo señalan que “una vez que en el laboratorio se identifica una molécula prometedora comienza el verdadero reto: ponerla en el mercado”.

El proceso se inicia con la búsqueda de la diana terapéutica, seguido de la identificación y desarrollo de moléculas que pueden interaccionar con dicha diana. De estas primeras etapas de identificación, síntesis y evaluación biológica (in vitro) nacerán las primeras moléculas o hits con potencial para llegar a ser un fármaco. Las etapas más complicadas comienzan ahora, con la fase preclínica, en la que se recurre a modelos celulares y a animales de experimentación para estudiar la seguridad y la toxicidad de las moléculas. Esta fase es el “puente necesario para pasar del laboratorio –etapa de descubrimiento– a la fase clínica”, en la que se realizan estudios en humanos, explican las investigadoras.

Esto es lo que se conoce como ‘desarrollo clínico’, del que forman parte los ensayos clínicos, centrados en descubrir o comprobar los efectos clínicos y farmacológicos, así como en identificar cualquier reacción adversa a los mismos y determinar su seguridad y eficacia en voluntarios y pacientes.

Proceso del desarrollo clínico de un medicamento

Proceso del desarrollo clínico de un medicamento. / María del Carmen Fernández y Nuria E. Campillo

Antes de que llegue hasta nuestras manos, el medicamento en cuestión debe ser autorizado y estará sujeto a diferentes regulaciones para su comercialización, por lo que el mundo farmacéutico se convierte en un entorno hiperregulado y sometido a una exigencia de alta calidad. Es una exigencia justificada porque precisamente es en las primeras fases de la investigación clínica donde pueden surgir reacciones adversas y, de hecho, alrededor de la mitad de los efectos indeseables de los fármacos se identifican solo en los ensayos clínicos en humanos, es decir, el éxito no siempre está garantizado ya que, como aseguran las investigadoras, “la probabilidad general de éxito clínico, es decir, que un fármaco pase con éxito todos los ensayos, es inferior al 12%”.

En definitiva, para comprender el proceso del desarrollo clínico habría que imaginarse un embudo: durante varios años se caracterizan entre 5.000 y 10.000 moléculas prometedoras, y solo unas 250 pasan a las fases preclínicas (un año), hasta llegar menos de 10 a los ensayos clínicos en humanos (seis-siete años). En ese momento, se da con un compuesto que podría ser el nuevo medicamento y si todo va bien… se lanza al mercado.

 

* Puedes leer más en el libro Cómo se fabrica un medicamento (Editorial CSIC – Los Libros de la Catarata), de la colección ¿Qué sabemos de?

¿Puede un robot diagnosticar una enfermedad mejor que un médico?

Por Ramón López de Mántaras y Pedro Meseguer (CSIC)*

La respuesta es ‘sí’. Pero, como casi todas las respuestas, hay que matizarla.

Históricamente, uno de los ámbitos de aplicación de la inteligencia artificial (IA) ha sido la medicina. En la actualidad la técnica de IA que está dando los resultados más espectaculares en el ámbito del diagnóstico basado en la imagen es el llamado aprendizaje profundo, que consiste en aprender a reconocer patrones de manera muy eficiente. Con esta técnica, recientemente científicos de la Universidad de Carnegie Mellón (EE UU), en colaboración con cuatro hospitales de Chicago, han desarrollado un sistema capaz de predecir infartos con cuatro horas de antelación en enfermos ingresados en UCIs, lo que mejora en más de tres horas los tiempos de predicción de los cardiólogos. Otro ejemplo exitoso de aplicación del aprendizaje profundo es el análisis combinado de imágenes médicas de rayos rayos X, MRI y ultrasonidos desarrollado por un grupo de la Universidad de Queensland (Australia), el cual puede diagnosticar el cáncer de mama mejor que los médicos.

diagnostico por ordenadorEste tipo de sistemas se entrenan a partir de enormes cantidades de datos. Así, el software capaz de predecir infartos fue entrenado con datos de 133.000 pacientes, que incluían 72 parámetros presentes en la historia clínica de estas personas (signos vitales, edad, glucemia, recuentos de plaquetas, etc.).

Cuando no se dispone de suficientes datos o el problema médico que se quiere resolver no se basa en el reconocimiento de patrones, sino más bien en razonamiento lógico basado en el procesamiento de conocimientos médicos, entonces es posible recurrir a otra técnica de IA menos novedosa pero también muy útil. Se trata de los denominados sistemas expertos, que utilizan el conocimiento acumulado sobre los síntomas de una enfermedad, el historial médico y los resultados de análisis médicos para llegar a conclusiones sobre el estado de un paciente, es decir, para diagnosticar. Cuanto mayor sea su capacidad para combinar sus conocimientos con las observaciones reales, más exacto será su diagnóstico.

El primer sistema experto médico fue HEURISTIC DENDRAL, desarrollado a partir de los años 70 en la Universidad de Stanford, en el ámbito de la química orgánica. Poco después, en la misma universidad se desarrolló MYCIN, orientado a las enfermedades infecciosas. Una parte del sistema describía posibles síntomas y otra expresaba una posible causa de los mismos. Además de incorporar conocimientos que permitían diagnosticar el agente causante de la infección, MYCIN también contenía información acerca del tratamiento adecuado, por lo que resultaba útil para la toma de decisiones por parte de los médicos.

Hoy ya hay multitud de sistemas en este campo que se usan regularmente en hospitales y centros médicos de todo el mundo. Por ejemplo, ATHENA, que ayuda a los médicos a tratar a pacientes con problemas de hipertensión. Este sistema procesa los datos clínicos de cada paciente y, a partir de su base de conocimientos sobre hipertensión, genera recomendaciones para mejorar la atención clínica personalizada.

Una de las aplicaciones más potentes a nivel mundial es el sistema GIDEON, que ayuda a diagnosticar 337 enfermedades infecciosas específicas en 224 países. Su base de datos cubre 1.147 taxones microbianos y 306 agentes antibacterianos y vacunas. La información que maneja es actualizada semanalmente e incluye más de 20.000 imágenes, gráficos, mapas infografías, etc. Todo ello le permite llegar a un 94% de diagnósticos correctos, y de ahí que sea uno de los sistemas más usados en el ámbito de la medicina. GIDEON es útil tanto para el diagnóstico y tratamiento de las enfermedades infecciosas, como para mejorar su conocimiento, identificar microorganismos patógenos y detectar brotes epidémicos. Básicamente lo que hace GIDEON es mejorar la exactitud del diagnóstico y ampliar la base de conocimientos de la persona experta. Ahora bien, como todo sistema, presenta algunas limitaciones. Por ejemplo, no es capaz de diagnosticar simultáneamente enfermedades concurrentes. Además, los signos y síntomas que se introducen para realizar una consulta se relacionan únicamente con las enfermedades transmisibles registradas en el sistema, por lo que quedan excluidas muchas otras.

En cualquier caso, es importante recalcar que los sistemas basados en IA, a pesar de ser capaces de proporcionar diagnósticos rápidos y certeros, nunca superarán el sentido común y el buen juicio de una persona, ni tampoco el efecto placebo resultante del trato humano y la empatía que caracteriza a un buen profesional de la medicina en la relación con sus pacientes. Otro punto fuerte de los expertos humanos respecto a la inteligencia artificial es la capacidad de aplicar el conocimiento existente cuando, por ejemplo, los datos son incompletos o la información sobre el estado de un paciente no se corresponde bien con los casos usuales.

Sin embargo, para un médico la capacidad de recordar datos organizados puede ser un factor limitante, igual que la de correlacionar los casos observados con el patrón de datos existente. Por ello el uso de sistemas de IA es una excelente ayuda. De hecho, los sistemas de IA en medicina no deberían diseñarse con el objetivo de sustituir al médico u otro personal sanitario, sino como sistemas de ayuda y complemento de su labor.

 

* Ramón López de Mántaras y Pedro Meseguer son investigadores del CSIC en el Instituto de Investigación en Inteligencia Artificial del CSIC y autores del libro de divulgación Inteligencia Artificial (CSIC-Catarata).

¿Habría corrido Ramón y Cajal la Carrera de la Ciencia este domingo?

Por Mar Gulis (CSIC)

Desde bien pequeño, Ramón y Cajal (1852-1934) sintió una precoz obsesión por la actividad física y por destacar entre sus iguales. Mostraba un enérgico empeño por ser el más fuerte, el más ágil, el más fornido. Dado que su entorno era favorable para este fervor por la aventura (nació en un remoto caserío en Petilla de Aragón), desde su niñez pudo dar rienda suelta a ese ansia de exploración de la naturaleza y la montaña, inquietud vital que dejó plasmada en numerosos escritos.

Dibujo de Santiago Ramón y Cajal realizado en 1904. Muestra las neuronas de la corteza cerebral. / Instituto Cajal del CSIC

Dibujo de Santiago Ramón y Cajal realizado en 1904. Muestra las neuronas de la corteza cerebral. / Instituto Cajal del CSIC

Poco conocida es esta vertiente aventurera del premio Nobel de Medicina en 1906. Sin embargo, esta faceta deportista influyó en el devenir de su vida, y no es de extrañar que su habilidad para la ciencia se viera favorecida por su curiosidad y su afición por el medio ambiente y la belleza que emana del entorno natural. No en vano, su especialidad fue el sistema nervioso y la anatomía patológica, y destacó también su lado más estético y artístico, en especial el dibujo. Su obsesión por el riesgo, la montaña y el ejercicio físico (él mismo llegó a denominarla “manía gimnástica”), llevando al cuerpo a situaciones límite, le ayudó también a reponer su maltrecha salud tras sufrir enfermedades como la malaria y la disentería.

Son muchos los investigadores e investigadoras que compaginan la satisfacción por el deporte con la pasión por la ciencia. Una de las citas ineludibles de los aficionados al atletismo y las carreras populares es la Carrera de la Ciencia del CSIC.

Cartel de la XXXVI Carrera de la Ciencia

Cartel de la XXXVI Carrera de la Ciencia 2016

Como todos los años, miles de personas participarán en Madrid este domingo 16 de octubre en un evento que celebra con esta su 36ª edición. Un circuito urbano de 10 kilómetros, que discurrirá por grandes avenidas y lugares emblemáticos como Recoletos, el Paseo de la Castellana o la calle Serrano, será el escenario de la XXXVI Carrera de la Ciencia ICON.

Esta iniciativa del CSIC tiene sus orígenes en una carrera cross-country celebrada en 1925 que formó parte del concurso atlético de la Residencia de Estudiantes. Ya entonces, discípulos de las ideas pedagógicas de la Institución Libre de Enseñanza recorrieron 3.000 metros por los lugares donde se celebra actualmente la prueba.

No sabemos si Santiago Ramón y Cajal habría participado en esta carrera, pero sí que cada año la corren miles de personas, muchas de ellas dedicadas a la ciencia. El punto de partida será el número 117 de la madrileña calle Serrano –sede central de la institución–, donde los corredores se congregarán a las 9:00 para comenzar el recorrido.

Un año más, la Carrera vuelve a sumarse a la campaña solidaria Kilómetros por alimentos (#KmsXalimentos). Todos los participantes podrán aportar kilos de comida, no perecedera y debidamente envasada, que irán destinados al Banco de Alimentos de Madrid.

El único requisito para participar en la Carrera de la Ciencia es ser mayor de edad. Así que, si esta vez se te ha pasado la fecha para apuntarte, la edición del próximo año te espera.

¡A correr!

‘Plásticos’, los nuevos antibióticos

fotogema70

 

Por Gema de la Asunción (CSIC)*

Seguro que conoces a alguien que ha tomado un antibiótico “por si acaso”, o “porque ayuda a las defensas” o porque, en todo caso, “daño no nos va hacer”. Por ejemplo, entre los años 60 y 80 los médicos recetaban mucho las tetraciclinas para tratar catarros y anginas. Entonces no se sabía que este fármaco tiene ‘apego’ por los dientes y se deposita en ellos durante su actividad metabólica, así que cuando se administra a un niño menor de 12 años, afecta al desarrollo de sus huesos y puede teñir su dentadura de color amarillo para el resto de su vida.

 La tetraciclina fue a menudo recetada como antibiótico entre los años 60 y 80 / Rillke / Wikipedia

La tetraciclina fue a menudo recetada como antibiótico entre los años 60 y 80 / Rillke / Wikipedia

Lo de los dientes no deja de ser más un problema estético… Pero lo que verdaderamente preocupa a los científicos es el incremento alarmante de las resistencias provocadas por la administración excesiva e irresponsable de estas medicinas. El microorganismo se hace resistente al antibiótico y este deja de funcionar. Si el descubrimiento de la penicilina inauguró “la era de los antibióticos” e incrementó la esperanza de vida de forma exponencial, el problema de las resistencias provoca cada año 25.000 muertes en Europa.

Por ello se buscan nuevas formas de combatir infecciones más allá de los antibióticos tradicionales, cuya desventaja consiste en que, al atacar solo mediante la vía metabólica, los microbios logran desarrollar un mecanismo de resistencia en una o dos décadas.

Uno de estos nuevos métodos es el uso de polímeros con actividad antimicrobiana. Estos compuestos químicos están formados por la unión repetida de unidades llamadas ‘monómeros’ que forman largas cadenas. Basándose en esta tecnología, investigadores del Instituto de Ciencia y Tecnología de Polímeros (ICTP) del CSIC han desarrollado una nueva familia de polímeros con actividad antimicrobiana. ¿En qué se diferencian de un antibiótico tradicional?

 La bacteria Escherichia Coli, causante de diarreas y dolores estomacales, podría ser combatida con estos nuevos antibióticos / Wikipedia

La bacteria Escherichia Coli, causante de diarreas y dolores estomacales, podría ser combatida con estos nuevos antibióticos / Wikipedia

“Como tienen carga positiva, los nuevos polímeros solubles en agua atraen mediante interacciones electrostáticas a las bacterias cuya membrana celular está cargada negativamente. Al producirse esta interacción, la membrana se destruye y provoca la muerte del hongo o bacteria”, explica Marta Fernández-García, investigadora del ICTP responsable del trabajo. Al morir, el microorganismo no puede mutar y, por tanto, hacerse resistente.

El estudio también confirma que estos materiales, que se obtienen de manera sencilla mediante un método de polimerización convencional, son eficaces a baja concentración contra los patógenos, pero resultan inocuos frente a los glóbulos rojos. Esta es una novedad importante porque aunque en investigaciones previas se habían conseguido moléculas efectivas, se daba la paradoja de que cuanto más activo era el sistema, mayor toxicidad generaba en el organismo.

Las aplicaciones de estos compuestos son prometedoras en la búsqueda de nuevos fármacos con los que tratar enfermedades causadas por Escherichia Coli o Staphylococcus Aureus, resistentes a los ‘últimos cartuchos’ de antibióticos convencionales, pero también podrían usarse en otros campos como la preservación de alimentos y su envasado, pinturas y recubrimientos o industria textil.

 

* Gema de la Asunción trabaja en la Unidad de Cultura Científica del Centro de Química Orgánica «Lora-Tamayo» (CENQUIOR) del CSIC.

Geel, el pueblo que ama a los enfermos mentales

Por Rafael Huertas*

La historia que vamos a contar transcurre en la aldea belga de Geel, situada en la provincia de Amberes y a unos 70 kilómetros de Bruselas. Cuenta la leyenda que a finales del siglo VI, Dimphna, una princesa irlandesa convertida al cristianismo, huyó de su país en compañía de su confesor, un viejo anacoreta llamado Gerebernus, para escapar de las proposiciones incestuosas de su padre. Perseguidos y capturados en Geel, ambos tuvieron un final trágico: el rey de Irlanda ordenó ejecutar a Gerebernus y decapitó personalmente a su hija. En aquel preciso instante, y ante la barbarie del acto, algunos locos presentes recuperaron la razón y, posteriormente, se observaron milagrosas curaciones ante la tumba de la joven mártir.

zvzvc

Santa Dimphna nació en Irlanda en el siglo VII / Wikipedia

A partir del siglo XII, y por razones no bien definidas, Geel se convirtió en un lugar de peregrinación; allí acudían muchas personas con desarreglos mentales con la esperanza de curarse. Dimphna fue canonizada y se construyó una iglesia en su honor a la que se adosó una cámara de enfermos, donde los pacientes tenían que estar recluidos nueve días antes de ser sometidos a un rito para ser exorcizados. Este consistía en pasar en cuclillas por debajo de una especie de altar donde se colocaba una urna con las reliquias de la santa. Dimphna se convirtió así no solo en la patrona de los locos, sino en un instrumento de curación.

Poco a poco, la costumbre de ver locos y convivir con ellos fue arraigando y los canónigos de la iglesia de santa Dimphna fueron confiando a las familias de la ciudad a los cada vez más numerosos enfermos no curados. Esta tradición, iniciada en la Edad Media, se mantuvo en el tiempo y suscitó gran interés y debate entre los alienistas –médicos dedicados al estudio y curación de las enfermedades mentales– del siglo XIX, pues los locos que paseaban libremente por las calles de Geel, con el beneplácito de los vecinos, contrastaban fuertemente con los que eran sometidos al encierro en el manicomio.

sdgdf

Una calle de Geel con la iglesia dedicada a Santa Dimphna al fondo / Wikipedia

Más recientemente, la comunidad de Geel, con unos 35.000 habitantes, se ha considerado un antecedente de las colonias terapéuticas e, incluso, un ejemplo con el que ilustrar la necesaria integración de los servicios de salud mental en el resto de las estructuras sociales. El objetivo sería superar el aislamiento, la estigmatización, la extrema dependencia y la pérdida de autonomía que el asilo produce sobre los enfermos mentales.

Hoy unas 250 familias acogen en sus hogares a enfermos mentales, manteniendo así viva una tradición que comenzó hace siete siglos.

 

 

* Rafael Huertas es historiador de la ciencia en el Instituto de Historia del CSIC. Este post es un extracto de su libro La locura (CSIC-Catarata).

¿Sabías que los balazos de la II Guerra Mundial fueron el origen de los implantes metálicos?

Prótesis

Wikipedia

Por Mar Gulis

Como si de coches o bicicletas se tratara, los humanos tenemos piezas de repuesto que salvan o mejoran nuestra calidad de vida. Para reemplazar huesos y dientes, sustituir tejidos blandos como la piel o remediar  los degastes de nuestro sistema cardiovascular (marcapasos, stents), los biomateriales –materiales implantables en un organismo vivo– son la solución a los posibles defectos ‘de fábrica’ o ‘debidos al uso’ de nuestro cuerpo.

La investigación en materiales útiles para la fabricación de prótesis e implantes  ha avanzado mucho, pero todo comenzó por azar, tal y como cuenta María Vallet en su libro Biomateriales. Tras la Segunda Guerra Mundial los médicos observaron que los soldados con restos de metralla en su cuerpo podían vivir sin problemas. Esto les llevó a deducir que la inclusión de partículas metálicas en el cuerpo no suponía un problema y que, por tanto, estos metales, al ser tolerados por el organismo, se podían emplear para reparar otros tejidos internos. Así fue como empezaron a utilizar implantes metálicos para corregir daños en el cráneo o para la fijación interna de fracturas.

Además de materiales metálicos, para fabricar implantes se utilizan cerámicas, polímeros o materiales compuestos. La lista es larga y variada, porque actualmente los componentes, así como la instrumentación para su colocación, se diseñan para cada problema concreto. Se ha pasado de utilizar materiales inertes para la sustitución de tejidos vivos, como una prótesis de rodilla o cadera, al diseño de materiales bioactivos y biodegradables para la reparación de los mismos. Algunos biomateriales incluso se diseñan para durar lo que viva el paciente, mientras que otros se degradan en productos metabolizables.

La investigación en este campo ha llegado aún más lejos. Ahora la comunidad científica trabaja en la tercera generación de biomateriales, donde el objetivo es la regeneración de tejidos, o incluso de órganos como el hígado o los riñones.

Está claro que los biomateriales han llegado para quedarse. Un dato: más de 50 millones de personas en todo el mundo tienen implantado algún tipo de prótesis.  Y otro dato, ahora de casa: en los últimos 15 años (1997-2012) se han colocado en España 426.500 prótesis de cadera y 430.000 prótesis de rodilla, casi un millón de componentes, lo que da idea del número de personas que hacen vida normal gracias a los avances en este ámbito.

Es más, María Vallet sostiene que cada vez será más frecuente que a lo largo de nuestra vida necesitemos la ayuda de un biomaterial. La buena noticia es que «hay solución prácticamente para todos los órganos y sistemas corporales», explica. Vamos, que no podemos impedir que nuestros cuerpos  se estropeen en algún momento, pero al menos contamos con prótesis e implantes que nos faciliten la vida.

Implantes y cuerpo

Media de prótesis implantadas al año en España en el periodo 1997-2012.