Entradas etiquetadas como ‘cáncer’

El redescubrimiento de las zanahorias moradas

Por Laura Sáez Escudero, Gracia Patricia Blanch Manzano, María Luisa Ruiz del Castillo (CSIC)* y Mar Gulis

Los primeros cultivos de zanahoria datan del año 3.000 a. C. en la zona que hoy ocupa Afganistán. Sin embargo, la variedad más popular en la actualidad, la zanahoria naranja, no apareció hasta el siglo XVII, cuando agricultores holandeses cruzaron de forma deliberada varias zanahorias cultivadas y silvestres para que el color de esta hortaliza coincidiese con el de la casa real holandesa de Orange.

Hasta entonces la variedad dominante había sido la zanahoria morada. Las primeras zanahorias cultivadas eran de un color morado oscuro, casi negro. A medida que los comerciantes árabes fueron llevando su semilla por África y Oriente Próximo, surgieron nuevas variedades blancas, amarillas y rojizas, pero el dominio de la zanahoria naranja tardaría aún varios siglos en llegar.

Sin embargo, el consumo de zanahoria morada está volviendo a adquirir cierta popularidad. Esto se explica por su sabor, similar al de las zanahorias naranjas pero un poco más dulce y con cierto toque picante, y por sus propiedades nutricionales. Al igual que las zanahorias naranjas, las moradas contienen carotenoides, compuestos antioxidantes y precursores de la vitamina A que son responsables del color naranja y amarillo de estas hortalizas. Pero la zanahoria morada, además, contiene antocianinas, unos polifenoles responsables del color rojo, violeta o azul que hace atractivos a muchos vegetales y que tienen también efectos antioxidantes. Hasta el momento, se han descubierto hasta 500 antocianinas diferentes en las plantas.

Tanto a los carotenoides como a las antocianinas se les ha atribuido una acción preventiva frente a ciertos tipos de cáncer, enfermedades cardiovasculares y patologías relacionadas con la edad. Ambos compuestos forman parte de los denominados fitonutrientes: moléculas defensivas que las plantas generan en respuesta al estrés ambiental y que nos aportan sus propiedades protectoras cuando las ingerimos. Se trata de sustancias bioactivas que no nos proporcionan calorías pero que pueden tener muchos efectos positivos para el organismo humano.

Zanahorias hervidas, horneadas o liofilizadas

En el Instituto de Ciencia y Tecnología de Alimentos y Nutrición (ICTAN) del CSIC hemos estudiado cómo diferentes formas de cocinar la zanahoria morada afectan al contenido de sus compuestos bioactivos (carotenoides y polifenoles, como las antocianinas) y a su capacidad antioxidante.

En concreto, hemos considerado el hervido, la cocción al vapor, el horneado durante diferentes tiempos y la deshidratación mediante liofilización (un proceso que da lugar a zanahoria en polvo, que se emplea como colorante natural). Si comparamos el hervido y la cocción al vapor, ambos procedimientos provocan un aumento de carotenoides, pero en el hervido se observó una disminución drástica de antocianinas por arrastre de estos compuestos al agua de cocción. La liofilización dio lugar a un aumento de antocianinas, pero provocó la pérdida de los carotenoides. El horneado fue el método de cocinado que dio lugar a resultados más equilibrados, ya que no se observó aumento de ninguno de los pigmentos bioactivos estudiados, pero tampoco pérdida.

También es interesante resaltar la correlación directa entre la presencia de antocianinas y la actividad antioxidante de la muestra. Las antocianinas son los antioxidantes que contribuyen en mayor medida a las propiedades biológicas de esta variedad de zanahoria

En conclusión, la zanahoria morada es un alimento muy interesante por sus propiedades promotoras de la salud. Sin embargo, seleccionar su forma de consumo es vital si queremos aprovechar estas propiedades. Aunque cada tipo de cocinado presenta ventajas e inconvenientes, en general, la cocción a vapor y el horneado ofrecen un producto más equilibrado y completo.

 

* Laura Sáez Escudero, María Gracia Blanch Manzano y María Luisa Ruiz del Castillo forman parte del grupo de investigación ENANTIOMET en el Instituto de Ciencia y Tecnología de Alimentos y Nutrición (ICTAN) del CSIC.

 

 

 

¿Por qué no todo el mundo tiene la piel negra?

Por Lluis Montoliu (CSIC)*

Solamente hace falta sentarse unos minutos en un banco de una estación de metro concurrida de una gran ciudad y dedicarse a contemplar a las personas que pasan por allí para darse cuenta de la enorme diversidad que tenemos de colores de piel, pelo y ojos. ¿Cómo es posible que haya gente con la piel, cabellos y ojos tan claros y, a la vez, también existan otras personas con la piel, el pelo y los ojos muy oscuros, casi negros? ¿Por qué no todo el mundo tiene la piel clara? ¿Por qué no toda la gente tiene la piel oscura? Toda esta maravillosa diversidad de aspectos de los seres humanos es producto del funcionamiento de un grupo de genes que determinan nuestra pigmentación, los llamados genes de colores.

Una chica pelirroja en un ascensor suscita el interés de quienes están a su alrededor. / Ilustración de Jesús Romero

Pequeñas variaciones en algunos de ellos pueden causar grandes diferencias en nuestra apariencia externa, pero no debemos olvidar que en lo fundamental todos los seres humanos somos mucho más parecidos de lo que habitualmente algunas personas están dispuestas a asumir. Todos los seres humanos compartimos el 99,9% de nuestro genoma y las diferencias genéticas (0,1%) son fundamentalmente individuales. En otras palabras, por más que algunos se empeñen en seguir refiriéndose a este término, no existen las razas en la especie humana. Más allá de unas variaciones genéticas en algunos genes de colores que determinan el color de la piel, pelo y ojos, dos personas de origen africano pueden ser tan distintas entre sí como dos personas de origen europeo.

El color de piel de los primeros seres humanos

Nuestros antepasados homínidos tenían el cuerpo blanquecino, cubierto de pelo, como los chimpancés actuales. Posteriormente, cuando aquellas poblaciones ancestrales emigraron desde la selva a la sabana, tuvieron que adaptarse a temperaturas más elevadas y mayor radiación solar. Perdieron el pelo para así poder empezar a sudar y regular mejor la temperatura corporal, pero sin pelo tuvieron que desarrollar otro tipo de protección frente al sol. La aparición de mutaciones en algunos genes de colores que ennegrecían la piel fue providencial y así aquellos primeros seres humanos sin pelo con piel oscura pudieron sobrevivir bajo el sol. Esta adaptación les permitió proteger determinadas vitaminas necesarias para la vida y la reproducción que se degradan por el sol, como el ácido fólico, y reducir el riesgo de desarrollar cáncer de piel, que habría acabado con sus vidas.

Posteriormente, cuando los seres humanos emigraron desde África hacia el norte de Europa, llegaron a tierras con mucha menor radiación solar en las que el exceso de pigmentación era un problema, pues no les permitía aprovechar los pocos rayos de sol que tenían al día para poder sintetizar la cantidad mínima necesaria de vitamina D que producimos en nuestra piel por acción de la radiación ultravioleta del sol. De nuevo, la aparición de una mutación en otro gen que palidecía la piel fue providencial y permitió a esos humanos adaptarse a las duras y oscuras condiciones.

El origen de las personas pelirrojas

Esa mutación alteró la composición de la melanina que fabricábamos, tanto que algunas personas pasaron de acumular una mezcla de pigmentos formados por una melanina oscura, que llamamos eumelanina, y otra más clara, naranja-rojiza, que llamamos feomelanina, cuya mezcla es responsable de la gran diversidad de colores de piel que tenemos, a fabricar solamente feomelanina. Habían surgido las personas pelirrojas, cuya piel blanca les permitió adaptarse mejor a aquellas latitudes, además de proporcionarles esos fascinantes colores de pelo y ojos que el resto envidiamos. Y así es como, alterando la función de unos pocos genes de colores, podemos pasar de pieles blancas a más oscuras para luego regresar a pieles nuevamente pálidas.

En Europa es donde se concentra una mayor diversidad de patrones de pigmentación de las personas, y donde coexisten personas rubias, castañas, morenas, pelirrojas y negras formando casi un continuo de aspectos y colores. Erróneamente, tendemos a pensar que África es un continente mucho más uniforme. Sin embargo, existe igualmente una enorme variabilidad genética en personas de origen africano, que difícilmente puedan agruparse como una sola población. Por ejemplo, en cuanto a la pigmentación hay grandes diferencias entre las pieles más oscuras de personas nacidas en la región de Etiopía, Somalia y Sudán y las tonalidades mucho más claras de personas de los extremos del continente, el Magreb y Sudáfrica. Esto nos dice que no hay ‘un’ color de piel oscura, negra, sino muchos. De la misma manera que no hay un color de piel clara, blanca, sino muchos.

Misma cantidad de melanina, distinta capacidad de transportarla

Intuitivamente pensaríamos que una persona de piel negra debería tener más células pigmentarias, más melanocitos en la piel, que una persona de piel blanca. Y no es así. Esta es la típica pregunta de programa de televisión de cultura general que fallaría casi todo el mundo. La realidad es que dos personas, una de piel negra y otra de piel blanca, tienen aproximadamente el mismo número de melanocitos.

¿Cómo puede ser que la primera tenga la piel mucho más oscura que la segunda? La diferencia no está en el número de células pigmentarias, sino en la capacidad que tienen estas de trasladar el pigmento que fabrican, la melanina, a los queratinocitos de nuestra piel. Estas células son las que nos dan nuestra pigmentación, no los melanocitos, que se encuentran situados en capas más profundas de la piel, en el límite entre la epidermis y la dermis. Simplemente alterando la función de otros genes de colores, responsables del transporte de melanina entre melanocitos y queratinocitos, somos capaces de oscurecer significativamente el color de nuestra piel.

Estructura simplificada de las células de la piel, con los melanocitos en la base de la epidermis transfiriendo sus melanosomas repletos de melanina a los queratinocitos. / Ilustración de Jesús Romero

De todo ello se deduce lo absurdo e inútil que es intentar buscar diferencias entre dos personas simplemente porque presenten colores distintos de piel. Con muy pocas diferencias en algunos de los genes de colores somos capaces de cambiar el aspecto externo de una persona, pero en lo fundamental todas las personas, tengamos la piel blanca o negra, somos semejantes. Nunca estuvo justificado ningún tipo de racismo, tampoco desde la genética. Aceptemos y gocemos con la enorme variedad de aspectos que podemos tener los seres humanos sin que por ello haya personas que sean discriminadas o sufran rechazo, persecución o ataques por motivo del color de su piel.

 

* Lluis Montoliu es genetista e investigador del CSIC en el Centro Nacional de Biotecnología (CNB). Este y otros temas relacionados con la genética de la pigmentación forman parte de su nuevo libro de divulgación Genes de colores, con ilustraciones de Jesús Romero y publicado por NextDoor Publishers.

‘Top models’ de la ciencia: descubre a los seres vivos más utilizados en el laboratorio

Por Mar Gulis (CSIC)

Entre probetas, microscopios o tubos de ensayo, camuflados o a la vista, podrías encontrarlos en cualquier parte de un laboratorio. Hablamos de una bacteria del intestino humano, de la mosca de la fruta y del ratón; tres especies en principio poco llamativas, o incluso molestas. Sin embargo, la ciencia utiliza estos ‘bichitos’ como modelos de los seres vivos desde hace años. Gracias a ellos, se han hecho importantes descubrimientos sobre los mecanismos de la vida o diseñado tratamientos contra el cáncer. Te invitamos a conocer desde tu casa a estos ‘top model’ de la investigación, que forman parte de la exposición virtual del CSIC Seres modélicos. Entre la naturaleza y el laboratorio.

1. La bacteria que se volvió famosa por cambiar la biología

Aunque a simple vista sea inapreciable, la bacteria Escherichia coli es la más conocida en los laboratorios. Inicialmente se llamó Bacterium coli por ser la bacteria común del colón. Comenzó a estudiarse por las infecciones que causaba, pero a mediados del siglo XX se convirtió en modelo biológico gracias a su estructura sencilla, rápido crecimiento y los medios empleados para su cultivo, que aumentaron las posibilidades experimentales. Su utilización permitió hallar algunos de los principios básicos de la vida, pero E. coli alcanzó el estrellato con el descubrimiento de la técnica de ‘corta y pega’ del ADN, en la cual se usan enzimas para quitar e insertar segmentos de código genético y que supuso el inicio de la ingeniería genética. Hoy en día se emplea en la selección de genes concretos, estudiados posteriormente en otros organismos más complejos.

Micrografía electrónica de Escherichia coli a 10.000 aumentos.

Esta bacteria sabe mucho de los seres humanos. El genoma de E. coli, compuesto por cerca de 4.300 genes, contiene una séptima parte de nuestros genes. Además, habita en el intestino humano, donde forma parte junto a cientos de especies de la mibrobiota intestinal –también conocida como flora intestinal–, que cumple un papel fundamental en la digestión y en la defensa frente a patógenos.

E. coli es un instrumento más del laboratorio. El interés de su investigación reside todavía en las infecciones, ya que cada vez existe una mayor resistencia a los antibióticos, pero también en los mecanismos que se ponen en marcha al dividirse la célula, y cuyo mejor conocimiento permitiría diseñar, con ayuda de técnicas genómicas, fármacos con menor resistencia.

2. ¿Cómo conseguir la apariencia de una mosca?

Imagina lo molesto que resulta el zumbido de una mosca al merodear por nuestras cabezas. A partir de ahora puede que cambies de opinión cuando descubras que las moscas del vinagre o de la fruta (Drosophila melanogaster) son usadas como modelo en biología animal. Es habitual verlas en cualquier lugar, pero son más abundantes en terrenos agrícolas, cuando hace buen tiempo y, desde hace más de un siglo (esta especie se estudió por primera vez en 1901), también en los laboratorios. Saber de la mosca significa saber del ser humano porque ha sido clave en investigaciones sobre enfermedades neurodegenerativas, tumores y metástasis.

Visión dorsal y lateral de un macho y una hembra de Drosophila melanogaster. / Benjamin Prud’homme. Institut de Biologie du Développement de Marseille-Luminy. Parc Scientifique de Luminy.

Uno de los objetivos de su estudio es conocer cómo este pequeño insecto consigue su apariencia. La secuenciación de los genomas ha permitido determinar que la mayoría de genes de la mosca de la fruta son homólogos a los humanos. Por tanto, investigando los genes de esta mosca, que es un modelo de experimentación mucho más simple, se puede tener una idea de la acción de los genes en los humanos.

Sin duda su filón para la genética es más que evidente, y no solo porque el genoma de la mosca del vinagre alberga alrededor de 13.600 genes, un tercio de los que contiene el genoma humano. Además, a partir de cruces entre más de 100 tipos de moscas, el investigador Thomas H. Morgan (1866-1945) estableció que los caracteres se encuentran en los cromosomas y se heredan de generación en generación. Con ello dio lugar a la teoría cromosómica de la herencia, que le hizo merecedor del Nobel de Medicina en 1933.

3. ¡Roedores en el laboratorio!

Llaman la atención por su par de dientes incisivos y por su minúsculo tamaño. Los encontrarás en bosques, en tu ciudad y, cómo no, en un laboratorio. Así son los ratones, o Mus musculus si atendemos a su nombre científico. Utilizados como objeto de experimentación, desde hace más de un siglo son piezas clave en el estudio de la diabetes, el cáncer o los trastornos neurológicos; incluso los misterios del cerebro se exploran antes en los ratones que en el ser humano. Entre la comunidad científica hay quien los llama ‘seres humanos de bolsillo’.

En el año 2002 se dio a conocer la secuencia de su genoma, la primera de un mamífero: con cerca de 30.000 genes, aproximadamente los mismos que nuestra especie, el 99% de estos tiene su homólogo humano. Además, en ellos se reproducen enfermedades humanas como la obesidad o el párkinson, se realizan pruebas de toxicidad y se ensayan terapias futuras con células madre o nuevos materiales. Estos experimentos se han podido llevar a cabo a partir de ratones transgénicos y knock outs, es decir, aquellos producidos con un gen inactivado en todas sus células. En todos los casos, se han utilizado solo ratones machos para evitar que las hormonas sexuales afecten a los resultados.

Foto publicitaria del Jackson Laboratory. De izquierda a derecha, George Woolley, Liane Brauch, C.C. Little, desconocido y W.L. Russell. Década de 1940. / Cortesía del Jackson Laboratory.

Cuando las voces en contra de la experimentación animal comenzaron a alzarse, la defensa de los ratones no formó parte de las primeras reivindicaciones. La regulación llegó al mundo de los roedores con normativas y protocolos a nivel europeo. En ellas se establece que se debe reemplazar al ratón por otro sistema cuando sea posible y reducir el número de individuos en la investigación, para evitar así el sufrimiento animal.

E. coli, la mosca del vinagre y el ratón son solo algunos de las especies más comunes utilizadas como modelo. La muestra Seres modélicos. Entre la naturaleza y el laboratorio, cuyos contenidos puedes consultar online y descargar en alta calidad desde casa, se ocupa también de organismos como la levadura de la cerveza, un gusano minúsculo del suelo, una hierba normal y corriente y un pez de acuario. Elaborada originalmente por la Delegación del CSIC en Cataluña y ampliada en el marco del proyecto de divulgación Ciudad Ciencia, la exposición se complementa con entrevistas a especialistas en cada uno de estos seres modelo.

¿Sabías que la herrumbre (si es muy pequeña) tiene muchos usos médicos?

Por Fernando Herranz (CSIC)*

El tamaño sí que importa y lo cierto es que la herrumbre, el hierro oxidado que puede terminar apareciendo en piezas metálicas al estar tiempo sometidas a las condiciones atmosféricas, deja de ser una molestia si la empleamos a escala nanométrica. No solo eso, sino que cuando su tamaño es muy pequeño –justo antes de llegar al mundo de los átomos y las moléculas– algunos compuestos de la herrumbre –hidróxidos y óxidos de hierro– pueden utilizarse para diagnosticar enfermedades o tratar el cáncer.

Herrumbre

No hay duda de que a escala macroscópica la herrumbre constituye un serio problema, tanto a nivel estético –cuando afecta a superficies pintadas– como estructural ­–ya que, si penetra en profundidad, el metal presenta una resistencia mecánica mucho menor–. Esto explica la variedad de productos que se venden para evitar la formación de herrumbre o facilitar su eliminación.

Sin embargo, compuestos como la magnetita, uno de los óxidos más presentes en la herrumbre, tienen numerosas aplicaciones en el ámbito de la nanotecnología. Esta rama de la ciencia consiste en la producción y manipulación de materiales a escala nanométrica, es decir, que tienen al menos una dimensión de alrededor de 100 nanómetros (nm). A esta diminuta escala, empezamos a ver cosas muy curiosas que hacen que el óxido de hierro presente nuevas propiedades.

Pero, ¿qué ocurre cuando un material como la magnetita se forma a escala nanométrica para que sea tan distinto a cuando nos lo encontramos en el día a día? La magnetita macroscópica es fuertemente magnética, un imán, para entendernos. Cuando ese material se tiene en, por ejemplo, una esfera (una nanopartícula) de un diámetro de 10 nm, pasa a mostrar una propiedad llamada superparamagnetismo. De forma muy simple; todos los ‘pequeños imanes’ que constituyen el material están orientados en el mismo sentido dentro de la esfera. Debido a su tamaño, a temperatura ambiente, estas nanopartículas en agua no presentan magnetismo ya que cada esfera está dando vueltas al azar, sin una orientación definida. Sin embargo, cuando se acerca un imán, todas las nanopartículas se orientan y producen una respuesta magnética muy intensa. Esta propiedad de poder ‘enceder y apagar’ su magnetismo tiene múltiples aplicaciones.

Cabeza resonancia magnética

Imagen de una cabeza humana obtenida por resonancia magnética.

Por ejemplo, en medicina. Las nanopartículas basadas en magnetita, o materiales relacionados como la maghemita, se usan en imagen médica, en técnicas como la imagen por resonancia magnética o la imagen de partículas magnéticas. En esta aplicación las nanopartículas se dirigen, una vez inyectadas, a la enfermedad que se quiere diagnosticar y, una vez allí, es posible detectarlas por la señal que producen. En la imagen por resonancia magnética lo que hacen las nanopartículas es modificar el comportamiento magnético de las moléculas de agua de nuestros tejidos. Los dos hidrógenos de la molécula de agua (H2O) son los responsables de la señal en esa técnica de imagen. Las nanopartículas de magnetita modifican la señal que se obtiene de esos hidrógenos; de esa forma permiten saber dónde se han acumulado las nanopartículas y, por tanto, dónde se encuentra la enfermedad. Otra ventaja de las nanopartículas para imagen por resonancia es que, según las condiciones en las que se produzcan, pueden hacer que la señal sea más brillante o más oscura, lo que ayuda al diagnóstico de distintas enfermedades.

Brújulas vivientes

El comportamiento magnético de estas nanopartículas también explica otra de sus aplicaciones más interesantes en el tratamiento del cáncer. La técnica se llama ‘hipertermia magnética’ y consiste en acumular las nanopartículas en el tumor para, una vez allí, aplicar un campo magnético desde el exterior y producir un calentamiento de las células tumorales que acabe con ellas. Dicho calentamiento es posible gracias a las propiedades magnéticas de este nanomaterial.

Cadena de magnetosomas en el interior de la bacteria

Cadena de magnetosomas en el interior de la bacteria. / Alicia Muela; Estibaliz Etxebarria (UPV/EHU).

No solo el ser humano se ha dado cuenta de la utilidad de las nanopartículas de magnetita: ¡las bacterias también lo saben! Algunos de estos microorganismos producen en su interior pequeñas nanopartículas de magnetita (y también algunos otros compuestos relacionados) que se disponen de forma alineada a lo largo de la bacteria; son los llamados magnetosomas. Pero, ¿qué ganan con esto las bacterias? La respuesta es la magnetorrecepción: la capacidad de detectar las líneas del campo magnético terrestre y, de esa manera, orientarse. De hecho, los microorganismos que producen magnetosomas en el hemisferio norte se ven atraídos por el sur magnético, mientras que aquellos en el hemisferio sur se ven atraídos por el norte magnético (es decir, se sienten atraídos por el imán más potente que ‘sientan’). Las bacterias se convierten en minúsculas brújulas vivientes gracias a la nanotecnología.

En resumen, en nanotecnología, el tamaño importa, y mucho. Un mismo material que a escala macroscópica presenta pocas propiedades interesantes, cambia completamente cuando se presenta en la escala de los nanómetros.

 

* Fernando Herranz dirige el Grupo de Nanomedicina del Instituto de Química Médica del CSIC y colaborador habitual del blog DCIENCIA.

¿Qué es la nanomedicina?

Por Fernando Herranz (CSIC)*

La nanomedicina consiste nada más (y nada menos) que en la aplicación de la nanotecnología para el diagnóstico y tratamiento de distintas enfermedades. Se trata de una rama de la medicina cuyo uso se está extendiendo a prácticamente todos los ámbitos de la salud, como la lucha contra el cáncer, las patologías cardiovasculares y las enfermedades raras; el desarrollo de nuevos antibióticos; o, como veremos, la mayoría de los test de embarazo que se realizan en la actualidad.

Spaghetti celulares

Células de tejido conectivo sobre material biomédico. / Álvaro A. González y Salvador D. Aznar (FOTCIENCIA12)

Pero, empecemos por el principio: ¿qué es la nanotecnología? Esta se puede definir como la producción, manipulación y estudio de la materia con, al menos, un tamaño en el rango de los 100 nanómetros (nm). Para hacernos una idea, el diámetro medio de un cabello humano es de unos 70.000 nanómetros. Estamos hablando por tanto de lo muy muy pequeño: la escala más pequeña antes de entrar en el mundo de las moléculas y los átomos.

¿Qué tiene de especial esa escala? ¿Por qué no hablamos simplemente de “micromedicina”? La clave está en que cuando confinamos la materia en la escala nanométrica los objetos se comportan de forma muy diferente a cómo lo hacen a escalas de tamaño mayores, debido a que en el nanomundo las propiedades fisicoquímicas de los materiales varían según su tamaño. Lo que podemos hacer con una partícula de dos nanómetros de un material es totalmente distinto a lo que podemos hacer con una partícula de 10 nanómetros del mismo material.

Estamos habituados a pensar que los compuestos químicos, como los principios activos de los medicamentos, muestran propiedades distintas cuando cambian su composición. Para explicarlo con un ejemplo muy simple: en el mundo macroscópico, si los compuestos químicos fueran fruta y quisiéramos obtener distintos sabores, lo haríamos utilizando distintas frutas: naranja para el sabor naranja, manzana para el sabor manzana, etc. De igual manera, el paracetamol sirve para el dolor, pero el antibiótico para la infección bacteriana. Sin embargo, en la escala nanométrica, el sabor no solo depende de la composición de un compuesto, sino también de su tamaño: una naranja de tres nanómetros de radio sabría completamente diferente a una naranja de ocho nanómetros de radio.

 

Nanopartículas de oro en los test de embarazo

Fijémonos por ejemplo en las nanopartículas de oro, uno de los materiales más empleados en nanomedicina. Cuando hablamos de nanomedicina, una de las herramientas más empleadas son precisamente las nanopartículas; esferas con un tamaño nanométrico.

A diferencia del oro que estamos acostumbrados a ver en el día a día, las nanopartículas de oro presentan una gama amplia de colores muy vivos que varían del rojo al morado según su tamaño. En esta variedad de colores radica la clave de una de sus aplicaciones: su uso como sensores. Un sensor se puede definir, de forma muy resumida, como un compuesto que da una señal y que, en presencia de aquello que queremos detectar, cambia dicha señal.

En el caso de las nanopartículas de oro, lo importante es que cuando se unen al compuesto que se trata de detectar, su superficie se modifica, cambian de tamaño y, por tanto, de color. Ese cambio puede ser observado a simple vista, lo que permite la identificación del compuesto en cuestión.

Nanopartículas de oro de tamaños diferentes dispersas en agua.

Nanopartículas de oro de tamaños diferentes dispersas en agua.

Hay multitud de usos médicos de las nanotpartículas de oro basados en su capacidad de cambiar de color, pero quizás el test de embarazo es el más conocido. En ese caso, la típica banda que aparece si el resultado es positivo, se debe al cambio de tamaño de las nanopartículas de oro que se produce solo si se unen a la hormona gonadotropina coriónica humana, cuya presencia determina si hay un embarazo.

Como en toda nueva tecnología, el tiempo dirá cuáles de los nuevos desarrollos se convierten en nuevas terapias al alcance de todos y cuáles se quedarán por el camino. Al menos, por el momento, podemos olvidarnos de las típicas imágenes de ciencia ficción donde pequeños robots circulan por la sangre haciendo distintas labores. Lo que está claro es que la nanomedicina ha venido para quedarse y que su uso abre un campo inmenso de posibles y revolucionarias aplicaciones destinadas a mejorar el diagnóstico y tratamiento de algunas de las enfermedades más difíciles de diagnosticar y tratar en la actualidad.

 

* Fernando Herranz dirige el Grupo de Nanomedicina del Instituto de Química Médica del CSIC y colaborador habitual del blog DCIENCIA.

Acrilamida, el contaminante que podemos reducir de nuestras patatas fritas

Por Marta Mesías, Cristina Delgado Francisco J. Morales, (CSIC)*

La acrilamida es un contaminante químico que se produce de forma natural cuando se cocinan determinados alimentos a elevadas temperaturas (más de 120°C) y baja humedad. Se encuentra sobre todo en el café tostado, los cereales horneados y las patatas fritas. En general, los alimentos de origen vegetal contienen tanto azúcares como un aminoácido llamado asparagina, por lo que cuando se tuestan, se hornean o se fríen, se desarrolla una reacción llamada reacción de Maillard que, además de generar el aroma y el color apetecible de los alimentos procesados, da lugar a la formación de acrilamida.

Pero, ¿por qué debemos preocuparnos precisamente ahora por la acrilamida? En el año 2002 se descubrió su presencia en los alimentos procesados y se comprobó que la dieta es la principal fuente de exposición a este contaminante. Además, la acrilamida se encuentra tanto en alimentos procesados en la industria, como en alimentos cocinados en restaurantes y en nuestros hogares.

Años más tarde, en 2015, la Autoridad Europea de Seguridad Alimentaria (EFSA por sus siglas en inglés), tras consider las investigaciones aportadas hasta la fecha, concluyó que la presencia de acrilamida en los alimentos puede aumentar la probabilidad de desarrollar determinados tipos de cáncer y, por tanto, la ingesta de este compuesto puede suponer un riesgo para el consumidor. Durante este tiempo se han desarrollado numerosos estudios para comprender por qué se forma la acrilamida y cómo podemos reducir su aparición en los alimentos.

El pasado mes de abril entró en vigor el Reglamento de la Comisión Europea donde se establecen medidas concretas que obligan a las empresas alimentarias a controlar y reducir la presencia de acrilamida en los alimentos. Además, se fijan niveles de referencia para las principales fuentes de exposición (café, cereales y patatas fritas) y, en especial, para los alimentos infantiles, ya que los niños de corta edad, por su menor peso corporal y una dieta más monótona, tienen mayores tasas de exposición que la población adulta.

¿Cómo reducir la formación de acrilamida en las patatas fritas?

La buena noticia es que en nuestros hogares podemos reducir la formación de acrilamida y, en consecuencia, bajar los niveles globales de exposición. Sólo hay que seguir unas sencillas recomendaciones durante la manipulación y fritura de la patata:

  • En primer lugar debemos seleccionar patatas frescas sanas, no dañadas, sin zonas verdes, sin heridas y sin brotes.
  • Las patatas no deben almacenarse a bajas temperaturas, ya que el frío favorece la degradación del almidón a azúcares sencillos, que incrementarán la formación de acrilamida durante la fritura.
  • Después de pelar y cortar las patatas, debemos lavarlas bien debajo del grifo.
  • Una vez lavadas, hay que dejarlas en remojo en agua al menos 10 minutos, lo que favorecerá la eliminación de un posible exceso de azúcares. Esta acción es especialmente recomendable si utilizamos patatas de conservación. El objetivo es reducir el contenido en azúcares en la patata fresca, ya que se formará menos acrilamida durante la fritura.
  • Por último, hay que freír a temperaturas inferiores a 175°C y sólo durante el tiempo necesario para conseguir un color dorado. Conviene seguir el lema de la Agencia Española de Consumo, Seguridad Alimentaria y Nutrición (AECOSAN), «dorado, pero no pasado», ya que la acrilamida se relaciona con la aparición del color tostado en los alimentos procesados.

El proyecto de investigación SAFEFRYING, que se desarrolla en el Instituto de Ciencia y Tecnología de Alimentos y Nutrición (ICTAN) del CSIC, trabaja en identificar los puntos críticos de formación de acrilamida durante las operaciones de fritura en el ámbito doméstico y de restauración colectiva. La investigación se ha centrado principalmente en las patatas fritas, ya que su fritura es habitual en nuestras cocinas y los niveles de acrilamida pueden variar hasta en un 80% dependiendo del tipo de elaboración.

 

Marta Mesías, Cristina Delgado, Francisco J. Morales son investigadores del Instituto de Ciencia y Tecnología de Alimentos y Nutrición (ICTAN) del CSIC. Su grupo de investigación CHEMPROFOOD desarrolla el proyecto SAFEFRYING.

 

¿Sabías que el flash de tu cámara puede ayudar a detectar el cáncer de retina?

Por Mar Gulis (CSIC)

Cualquiera se ha encontrado alguna vez una foto en la que los retratados aparecen con un par de círculos rojos en los ojos. Este molesto fenómeno, que ocurre cuando utilizamos el flash, tiene su origen en la fisiología del ojo y en el comportamiento de la luz, y por extraño que parezca puede utilizarse para detectar un tipo cáncer de retina, el retinoblastoma.

Efecto 'ojo rojo' en la pupila. / Liam Welch vía Unsplash.

Pupila con ‘ojo rojo’. / L. Welch vía Unsplash.

Empecemos por el principio. ¿Por qué se produce el ‘efecto ojos rojos’? Sergio Barbero, investigador del CSIC en el Instituto de Óptica, explica que la luz entra en nuestros ojos a través de la pupila, “que es el equivalente al diafragma en una cámara de fotos”. Así, cuando hay mucha luminosidad en el ambiente, la pupila se contrae para evitar el daño de un exceso de luz, mientras que si ocurre lo contrario se dilata para permitir la visión.

Tras atravesar la pupila, la luz llega al fondo del ojo, donde se encuentran la retina y la coroides. “De toda la luz incidente en la retina, la mayor parte es transformada en señal eléctrica, lo que constituye el primer paso de la visión; sin embargo, una pequeña fracción atraviesa la retina y llega hasta la coroides, que está muy vascularizada porque su función es nutrir al ojo”, señala Barbero.

“La hemoglobina, presente en la sangre de los capilares de la coroides, absorbe los componentes azules de la luz incidente y emite hacia fuera luz de color rojizo”, prosigue. “Aunque este fenómeno está siempre presente, solo es perceptible si la cantidad de luz que penetra en el ojo es lo suficientemente grande: esto ocurre cuando en el ojo entra un haz de luz repentino (por ejemplo, el flash de una cámara) en un momento en que la pupila está dilatada (en un ambiente de oscuridad)”, aclara el investigador.

Funcionamiento del fenómeno 'ojos rojos'. / Photokonnexion

Esquema del efecto ‘ojos rojos’. / Photokonnexion

En la actualidad el ‘efecto ojos rojos’ ha sido solucionado gracias a la incorporación de un segundo flash, que se dispara a la vez que se abre el diafragma de la cámara, justo inmediatamente después del primero. De esta forma, la luz del segundo flash impacta ya sobre el músculo contraído, lo cual elimina casi por completo este antiestético efecto.

Hoy, el modo ‘anti ojos rojos’ viene de serie en la mayoría de las cámaras. Sin embargo, será necesario desactivarlo si pretendemos utilizar nuestro flash como método de detección del retinoblastoma, un tumor canceroso que se desarrolla en la retina causado por la mutación en una proteína. Este tipo de tumor aparece mayoritariamente en niños pequeños y representa un 3% de los cánceres padecidos por menores de quince años.

Cuando el retinoblastoma se sitúa en los vasos sanguíneos del ojo actúa como una muralla ante el efecto del flash, lo que impide que se vea el destello rojo en ese ojo o hace que aparezca uno blanquecino. Por eso, una foto puede ‘chivarnos’ esta patología. MedlinePlus, el servicio online de la Biblioteca Nacional de Medicina de los Estados Unidos, recoge que, si la persona fotografiada aparece solo con un ojo rojo o con uno de color blanquecino, esto podría ser una señal de presencia del tumor, por lo que se debería acudir al médico.

Carteles de la campaña de prevención del retinoblastoma. / Childhood Eye Cancer Trust

Carteles de la campaña de prevención del retinoblastoma. / Childhood Eye Cancer Trust

De hecho, Childhood Eye Cancer Trust, una fundación de ayuda contra el retinoblastoma, lanzó hace un par de años una campaña de prevención basada en este efecto. La entidad colocó carteles interactivos en varias ciudades con imágenes de ojos de niños con la característica de que, si se realizaba una foto con flash sobre estas, la pupila cambiaba y reflejaba uno de los posibles síntomas.

La campaña intentaba que los padres hicieran la prueba con sus hijos. Sin embargo, si alguien se decide a seguir el consejo, debe tener claro que la fotografía no basta para tener un diagnóstico concluyente: la presencia del retinoblastoma solo puede ser confirmada por profesionales médicos mediante pruebas adicionales y exámenes.

¿Cuál es la relación entre el cáncer y la carne roja o procesada? Algunas explicaciones sobre la polémica

AutoraPor Begoña Olmedilla Alonso (CSIC) *

A finales de octubre del pasado 2015 todos los medios de comunicación se hacían eco de las conclusiones de un  informe de la Agencia para la Investigación del Cáncer, integrada en la Organización Mundial de la Salud (OMS), en el que se clasificaba el consumo de carnes rojas como “probablemente cancerígeno para los seres humanos” y el de carnes procesadas como “cancerígeno para los humanos”. Ante la gran alarma social que esta noticia generó, el organismo emitió una nota de prensa aconsejando disminuir el consumo de estos tipos de carne para reducir el riesgo de cáncer. La nota también recordaba que, hace más de una década, la organización ya se había pronunciado en favor de un consumo moderado de carne procesada, debido a que su elevada ingesta se asociaba con un mayor riesgo en diversos tipos de cánceres. Además, la OMS añadía que actualmente se dispone de una mayor cantidad de pruebas, principalmente en relación con el cáncer colorrectal.

Embutidos

Según AECOSAN, la población adulta española consume 56 gramos de carne procesada por persona y por día. / mpellegr (flickr).

El informe incluía datos de un estudio que informaba sobre un aumento del 17% en el riesgo de cáncer por cada 100 gramos de carne roja consumidos al día y del 18% por cada 50 gramos de carne procesada. Probablemente las personas que hayan leído estos porcentajes se hayan alarmado con cierta razón y hayan dudado sobre qué hacer para evitar esos riesgos. Por ello, es conveniente echar un vistazo a los tipos de carne que se han estudiado en el informe del IARC y en qué cantidades las consumimos en España.

Si hablamos de tipos de carne, dentro del grupo de carnes rojas se analizó la carne de músculo de mamíferos sin procesar (como la carne de vaca, ternera, cerdo, cordero, caballo o cabra), incluyendo la carne picada o congelada, pero se dejó fuera la carne de aves. En cuanto a la carne procesada, se consideró la que ha sido transformada por salazón, curado, fermentación, ahumado u otros procesos con objeto de aumentar el sabor o mejorar su conservación.

Vamos ahora con las cantidades que comemos en nuestro país. Según datos publicados por la Agencia Española de Consumo Seguridad Alimentaria y Nutrición (AECOSAN), la población adulta española consume 164 gramos de carne y productos cárnicos por persona y por día. Si de estos eliminamos la carne de ave (la más consumida en España), la ingesta es de 116 gramos por persona al día (g/p/d), de los cuales aproximadamente 65 son de carnes rojas y 56 de carnes procesadas. Como se puede observar, es un consumo bastante bajo si lo comparamos con cantidades mencionadas por el IARC en su informe, que considera consumo medio de carne roja 50-100 g/p/d y consumo elevado, más de 200 g/p/d.

Desde el punto de vista de la alimentación, la carne es un elemento fundamental de la dieta ya que concentra y proporciona un gran número de nutrientes de alto valor biológico fácilmente absorbibles, como las proteínas, el hierro, el zinc o algunas vitaminas del grupo B. No obstante, también contiene, como cualquier otro alimento, algunos componentes presentes de forma natural (como la grasa saturada) o que se forman durante su cocinado que en cantidades inadecuadas pueden tener efectos negativos para la salud.  Por tanto, es importante considerar cuánto se consume y también cómo se consume. El cocinado mejora la digestibilidad y la palatabilidad, pero dependiendo del método de preparación de los alimentos también puede provocar la formación de compuestos cancerígenos, como hidrocarburos aromáticos policíclicos (HAP), en mayor o menor medida.

BuBBy_via Wikimedia Commons

Los procedimientos que implican contacto directo con la llama o con una superficie caliente están entre los que más elementos cancerígenos provocan. / BuBBy, via Wikimedia Commons.

Entonces, ¿qué forma de cocinar o preparar la carne provoca más elementos cancerígenos? De acuerdo con el informe del IARC, estos son los procedimientos que conllevan temperaturas por encima de 150 ºC, los que utilizan contacto directo con la llama o con superficies calientes y los que implican largos periodos de tiempo de cocinado. En este sentido, conviene tener en cuenta que en España se utiliza mucho la fritura, que produce menor cantidad de componentes cancerígenos que por ejemplo la barbacoa, ya que en la fritura no hay contacto directo con llama o superficie caliente. Además, no hay que olvidar que los productos cancerígenos no sólo se forman a partir de carnes rojas y procesadas, sino que también se producen al cocinar carne de aves o de pescados. Por otra parte, hay compuestos cancerígenos como las nitrosaminas que se forman a partir de nitratos y nitritos, elementos empleados con regularidad como aditivos en los productos cárnicos por su actividad antimicrobiana, pero que también se encuentran por ejemplo en las hortalizas.

Por ello, hay que buscar el equilibrio en la ingesta de los diversos tipos de alimentos que conforman la dieta habitual, y, muy importante, tener en cuenta que el riesgo de padecer o no cáncer no está determinado por un único factor.  En el caso de los factores dietéticos, hay que considerar cada alimento en conjunto con el resto de alimentos que componen la dieta.

En España, la AECOSAN alertó a la prudencia tras hacerse público el informe de OMS, indicando que el consumo de carne debe ser moderado, de no más de dos veces por semana. También, nos recordó los beneficios de una dieta variada, moderada y equilibrada como la mediterránea, rica en frutas, verduras, aceite de oliva, legumbres y pescado, los cuales están evidenciados científicamente, y constituyen la base de las recomendaciones nutricionales de nuestro país. Finalmente, hay que recordar que casi el 50% de los  cánceres más frecuentes se puede prevenir mediante unos hábitos dietéticos y de estilo de vida saludables.

 

* Begoña Olmedilla Alonso es investigadora del Instituto de Ciencia y Tecnología de la Alimentos y Nutrición (ICTAN) del CSIC.

Virus que se usan para curar

VirusPor Mar Gulis (CSIC)

Sida, gripe, algunas hepatitis… La mayoría de la gente sabe que los virus son la causa de un gran número de enfermedades. También es conocido que pueden ayudarnos a prevenir trastornos de salud a través de las vacunas, que utilizan virus atenuados o inactivados. Sin embargo, ahora los últimos avances en la investigación médica podrían hacer que comenzáramos a verlos como auténticos agentes terapéuticos capaces de curar enfermedades.

La razón de este cambio de percepción radicaría en el uso de los virus en la terapia génica. Esta incipiente rama de la medicina consiste en modificar la información genética de los pacientes para combatir trastornos que no tienen cura a través de métodos tradicionales, como la administración de fármacos o la cirugía. Si bien se trata de un campo todavía en desarrollo, ya se han aprobado más de 1.800 protocolos de ensayos clínicos para la utilización de terapias génicas en todo el mundo.

En su libro Terapia génica (CSIC-Catarata), los investigadores Blanca Laffon, Vanessa Valdiglesias y Eduardo Pásaro explican que este nuevo enfoque fue concebido para el tratamiento de enfermedades relacionadas con defectos genéticos. Entre las 4.000 que se conocen en la actualidad se encuentran algunos problemas de gran importancia para la salud pública, como varias formas de cáncer y buena parte de las enfermedades cardiovasculares y degenerativas. En estos casos la terapia génica se propone corregir el defecto genético introduciendo en el interior de células de interés (células diana) nuevos genes que permitan al organismo realizar correctamente funciones que se encuentran alteradas. Un ejemplo paradigmático de este tratamiento es el de los ‘niños burbuja’ aquejados de inmunodeficiencia combinada severa. Las diferentes técnicas ensayadas con estos pacientes consisten en introducir en algunas células el gen correcto encargado de producir la proteína adenosina deaminasa (ADA), cuya carencia da lugar a la inmunodeficiencia.

En la actualidad la terapia génica no se emplea solo en el tratamiento de enfermedades genéticas sino también en otro tipo de trastornos, como la mayoría de los cánceres o algunas infecciones. En estas situaciones de lo que se trata es de recurrir a la manipulación genética para dotar a las células de alguna propiedad que puede aprovecharse con fines terapéuticos. Por ejemplo, en pacientes portadores del virus de la inmunodeficiencia humana (VIH), causante del sida, se han introducido genes antivirales que evitan la reproducción del VIH cuando este infecta una célula.

¿Y qué tienen que ver los virus con todo esto? La explicación reside en que el material del que están hechos los genes, el ADN, no puede simplemente tragarse como una píldora ni inyectarse directamente en la sangre. El ADN desnudo (sin ninguna cubierta protectora) se deterioraría y además no podría reconocer o penetrar en las células a las cuáles está destinado. Este ADN desnudo necesita un transportador, o vector, para protegerlo y dirigirlo hacia las células correctas del organismo.

Hoy día los virus son los agentes más utilizados como vectores. Estos microorganismos infecciosos están constituidos por fragmentos de ADN o ARN contenidos en el interior de una cápsula de proteínas y, en algunos casos, rodeados de una envoltura formada por grasas y otras proteínas. No tienen metabolismo propio, por lo que han de introducirse en el interior de las células y utilizar su maquinaria para reproducirse, generando, por una parte, copias de su material genético y, por otra, sintetizando las proteínas necesarias para formar la cápsula. Cuando se han producido estos componentes y las nuevas partículas virales se han ensamblado, estas son liberadas de la célula hospedadora, lo que generalmente produce la muerte de esta.

Terapia génica

En la terapia génica, el gen terapéutico se introduce en un vector -un virus u otro agente- que facilita su transferencia al interior de la célula.

La terapia génica no utiliza virus ‘normales’ sino modificados genéticamente a los que se les extraen los genes que les confieren características dañinas –aquellos encargados de su reproducción, principalmente– y se les incorporan el gen o los genes deseados para el tratamiento. Estos virus infectan literalmente a los pacientes y penetran en el núcleo de las células, como un virus cualquiera. Sin embargo, una vez allí depositan un material genético que da lugar a la proteína necesaria para la terapia y no se reproducen.

Los vectores virales constituyen los sistemas más eficaces para transferir genes, ya que son capaces de infectar una elevada proporción de células diana. Sin embargo, hay que tener en cuenta que su uso entraña algunas dificultades y limitaciones. En primer lugar, deben considerarse cuestiones de seguridad, bien porque puede producirse una transferencia involuntaria del virus nativo (que no ha sido modificado), bien porque la introducción del genoma del virus en el de la célula hospedadora afecte a genes originales de esta impidiéndole realizar correctamente su función.

Otro punto clave es la reacción inmunitaria que el organismo puede poner en marcha. Como consecuencia, es posible que el sistema inmune elimine el material genético que se ha introducido provocando la muerte de las células modificadas por la transferencia, lo que impediría que la terapia surtiese efecto. Por último es preciso mencionar que la cantidad de material que los virus pueden transportar es limitada –hay genes que no caben en los virus– y que la producción de vectores virales en grandes cantidades es difícil y muy costosa.

El cáncer, historia de una enfermedad con miles de años

Por Karel H.M. van Wely (CSIC)*

Con todas las noticias que nos llegan últimamente, solemos pensar que el cáncer se trata de una enfermedad moderna, una consecuencia de nuestro estilo de vida actual. No obstante, las descripciones más antiguas sobre casos de cáncer se remontan al antiguo Egipto y, de hecho, se han encontrado tumores de colon en momias. El cáncer ni siquiera es una enfermedad que ocurra exclusivamente en los humanos; también la sufren los animales domésticos, y es muy probable que ya los neandertales y los dinosaurios la padeciesen. 

Deshollinador

El hollín fue de los primeros carcinógenos en ser relacionado a finales del siglo XVIII con el desarrollo de tumores. En la foto (anónima), un deshollinador en 1850. /Wikimedia Commons.

A pesar de conocer la existencia de los tumores durante mucho tiempo (el término ‘cáncer’ viene de los griegos antiguos e indica la estructura del crecimiento), únicamente hemos aprendido algo sobre las causas del cáncer a lo largo de estos últimos siglos. Una de las primeras personas en asociar una determinada causa con el cáncer fue Percivall Pott, a finales del siglo XVIII. Este cirujano inglés se dio cuenta de la existencia de una relación entre el trabajo de deshollinador y el desarrollo de varios tipos de tumores. Pott fue el primero en identificar un carcinógeno en el medio ambiente, el hollín, aunque no sabía que en realidad es una mezcla formada por varios compuestos químicos. Desgraciadamente, la gran mayoría de tumores no pueden explicarse con una relación causa-efecto tan evidente.

A finales del siglo XVIII, en Francia, se abrieron los primeros hospitales dedicados a los pacientes de cáncer. Su finalidad no era solo la de curar a los afectados, sino también evitar su transmisión, ya que entonces se creía que se trataba de una enfermedad contagiosa. Por miedo al contagio, algunos de estos hospitales se encontraban situados fuera de las ciudades. Debemos tener en cuenta que en esa época se había popularizado la teoría microbiana, que proponía que todas las enfermedades eran causadas por gérmenes.

En la actualidad reconocemos el origen contagioso de algunos tipos de cáncer, y las primeras vacunas (por ejemplo el cáncer de cuello de útero, provocado por un virus) han sido puestas en marcha. La mayoría de tumores, sin embargo, parecen producirse por una combinación compleja de factores, entre los cuales figuran la edad del individuo, su estilo de vida, y su predisposición genética. Seguramente hacen falta décadas de investigación para poder desenredar este conjunto de factores y llegar a una prevención más eficaz del cáncer en general.

Karel H.M. van Wely es investigador en el Centro Nacional de Biotecnología del CSIC y autor del libro Las células madre  y El cáncer y los cromosomas (ambos de CSIC-Catarata).