Archivo de la categoría ‘Ciencias de la Tierra’

El gran ‘fake’ científico del siglo XX: el hombre de Piltdown

Por Ana Rodrigo Sanz (IGME-CSIC) y Mar Gulis*

Casi con toda seguridad, el engaño más famoso, espectacular y controvertido de la ciencia de la segunda mitad del pasado siglo es el fraude del ‘hombre’ de Piltdown. Durante cerca de 40 años, la mayoría de la comunidad científica dio por válida la existencia de este supuesto eslabón perdido de la evolución, con cerebro humano y cuerpo de simio, que habría vivido en las islas británicas hace dos millones de años. La mentira puso en evidencia las malas artes de quienes la urdieron, pero también que los prejuicios culturales y el nacionalismo pueden dar alas a los peores bulos científicos.

Reconstrucción de ‘Eoanthropus dawsoni’ de 1913.

Vayamos al comienzo de la historia. En 1908, unos trabajadores de una cantera de grava situada en Piltdown, un pueblo de Sussex (Inglaterra), informaron a Charles Dawson (1864-1916), abogado y arqueólogo aficionado, de que habían encontrado un cráneo aplastado. Dawson se desplazó a la zona y continuó excavando, según dijo, hasta encontrar algunas piezas más del cráneo y fragmentos de otros mamíferos fósiles. En 1912, llevó sus hallazgos a Arthur Smith Woodward (1864-1944), conservador de paleontología del Museo de Historia Natural de Londres, quien los presentó ante la Sociedad Geológica de Londres.

El aspecto del cráneo recordaba al de un humano actual mientras que las características de la mandíbula eran notablemente simiescas. Eso sí, los dos molares que conservaba estaban desgastados de forma similar a la observada en los seres humanos. Asociados a estos restos aparecieron también dientes de hipopótamo y de elefante, así como utensilios de piedra primitivos. Estas herramientas parecían una evidencia palpable de que el individuo de Piltdown habría tenido una inteligencia muy superior a la de los monos.

El eslabón perdido de Darwin

El descubrimiento encajaba perfectamente en el esquema de la evolución humana propuesto por Darwin en El origen de las especies, muy extendido entre quienes se dedicaban a la paleoantropología a comienzos del siglo pasado. Según esta hipótesis, en el transcurso de la evolución humana un cerebro de gran tamaño debía de haber precedido al desarrollo de otros caracteres considerados como humanos. Por eso, se esperaba encontrar fósiles con cráneos que delataran un gran volumen cerebral articulados con esqueletos de aspecto simiesco.

Cuando Woodward presentó los fósiles, la comunidad científica manifestó sus dudas arguyendo que quizás mandíbula y cráneo no correspondían al mismo individuo. Sin embargo, varias autoridades en anatomía, como Grafton Elliot Smith o Arthur Keith, defendieron la autenticidad del descubrimiento.

Retrato de 1915 del examen del cráneo de Piltdown. Desde la izquierda, arriba: F. O. Barlow, G. Elliot Smith, Charles Dawson, Arthur Smith Woodward. Abajo: A. S. Underwood, Arthur Keith, W. P. Pycraft y Ray Lankester. / John Cooke

El hallazgo de un diente aislado puso fin a la polémica: en 1913, el padre Teilhard de Chardin (1881-1955), jesuita, filósofo y paleontólogo francés, encontró un canino inferior que podía ser asimilado a un mono, pero que presentaba marcas de desgaste parecidas a las humanas. La cuadratura del círculo se completó cuando dos años después el propio Dawson encontró en un segundo yacimiento próximo al original otros dos fragmentos craneales típicamente humanos y otra pieza dental más bien simiesca pero desgastada que, en su opinión, debían de pertenecer a un segundo individuo. Muchos de los detractores iniciales de Piltdown, como el gran paleontólogo francés Marcellin Boule (1861-1942), se retiraron del debate asumiendo su equivocación y reconociendo que estaban ante el tan esperado eslabón perdido.

Un hallazgo a la altura de Gran Bretaña

Fue entonces cuando se asignó una edad de unos dos millones de años a los restos y el nuevo fósil recibió el nombre de Eoanthropus (“el hombre del alba”) dawsoni en honor a su descubridor. Inglaterra, que hasta entonces no había contado con ningún hallazgo fósil de relevancia a pesar de ser la cuna de la teoría de la evolución, se cubrió de gloria científica. El hombre de Piltdown era mucho más antiguo que los neandertales, cuyos restos se habían encontrado en otros lugares de Europa y Asia, pero de los que solo había registro desde hace 230.000 años. Por tanto, los neandertales ‘franceses’ y ‘prusianos’ quedaban relegados a una segunda posición como rama colateral en la evolución humana.

Todo ello llevó a que Woodward y Keith fueran nombrados barones y a que a Dawson, fallecido en 1916, se lo recordara con una placa honorífica en Piltdown. Por si esto fuera poco, el lugar de los afortunados hallazgos fue declarado monumento nacional en 1950.

Sin embargo, en ese periodo las dudas sobre la autenticidad de los fósiles no se disiparon del todo y los nuevos descubrimientos en yacimientos de África y Asia comenzaron a contradecir el paradigma evolutivo que sugería el individuo de Piltdown. Es el caso, por ejemplo, del niño Taung, descubierto por el antropólogo australiano Taymond Dart (1893-1988) en Sudáfrica en 1924. El cráneo presentaba un excelente estado de conservación y su morfología recordaba a la de un simio: era muy pequeño, pero sus piezas dentales eran más semejantes a las humanas que a las de gorilas y chimpancés. Y aún había más: Dart afirmaba que el niño había caminado erguido, lo que le hacía aún más próximo a la especie humana. En 1925, se publicaron los resultados de su investigación en la revista Nature: el niño Taung recibió el nombre de Australopithecus africanus y su antigüedad fue datada en dos millones y medio de años. Pero la ciencia oficial no hizo mucho caso: el hombre de Piltdown era un peso pesado.

Reconstrucción de ‘Australopithecus africanus’ en el Museo de la Evolución Humana

El fin de la mascarada

Hubo que esperar a 1953 para que se descubriera la gran mentira. El geólogo del Museo de Historia Natural de Londres Keneth P. Oakley (1911-1981) dudaba de que los restos de Piltdown tuvieran la misma edad que los restos del estrato que supuestamente los contenía. Decidido a demostrar su corazonada, puso a punto un método de datación para calcular la edad relativa de los huesos fósiles a partir de su contenido en flúor. El fundamento del método es sencillo: la composición química del hueso puede verse alterada por la presencia de determinados elementos en las aguas filtradas a través de los sedimentos, como el flúor. De este modo, el incremento paulatino en flúor puede ayudar a distinguir huesos de edades diferentes aparentemente asociados en el mismo nivel estratigráfico.

El museo permitió a Oakley acceder a las piezas y, en 1950, descubrió que los restos de uno de los animales de Piltdown contenían un 2% de flúor, mientras que los fragmentos humanos tenían entre 0,1 y 0,4%. ¿Qué significaba esto? Que el hombre de Piltdown no superaba los 50.000 años. Pero había más dudas: ¿cómo era posible que Eoanthropus dawsoni tuviese mandíbulas similares a las de los monos cuando las de otros ancestros más antiguos eran iguales a las nuestras?

Izquierda: El cráneo del hombre de Piltdown, en una reconstrucción realizada por el Museo de Historia Natural de Londres. Derecha: cráneo de ‘Australopithecus africanus’ en el Augsburg Naturmuseum.

Oakley volvió a analizar las muestras utilizando nuevos métodos químicos, esta vez en colaboración con el paleoantropólogo británico W. E. le Gros Clark (1895-1971). Sus resultados demostraron que los restos fósiles de Piltdown habían sido teñidos con dicromático potásico para aparentar antigüedad y los dientes limados cuidadosamente para semejar un desgaste similar al de las piezas humanas. Los huesos del cráneo correspondían a los de un humano moderno mientras que la mandíbula y la pieza dental aislada a un orangután. En cuanto a los restos fósiles de mamíferos supuestamente presentes en la cantera de grava, se determinó que procedían de Malta o Túnez. Dataciones posteriores realizadas con radiocarbono fecharon la antigüedad del cráneo humano en unos 620 años.

En 1953, el periódico Times publicó que el supuesto ‘hombre’ de Piltdown era, en realidad, un fraude. El sentimiento de vergüenza nacional y la indignación fueron tales que la Cámara de los Comunes se planteó reducir los fondos del Museo de Historia Natural como castigo a la institución por no haber descubierto antes el engaño. Afortunadamente la flema británica se impuso y el museo quedó exonerado de culpabilidad.

Quienes no llegaron a sufrir las consecuencias de sus actos fueron los que la investigación histórica ha señalado como los artífices del engaño: Dawson, que murió en 1916, y su amigo desde 1909 Teilhard de Chardin, que falleció dos años después de que la mentira se desvelara, todavía como miembro de la Academia de las Ciencias de Francia. El papel controvertido de Woodward y Keith tampoco pudo esclarecerse con ellos en vida: el primero falleció en 1944 y los estudios que implican al segundo en el fraude no se difundieron hasta después de su muerte en 1955.

 

* Ana Rodrigo Sanz es directora del Museo Geominero del Instituto Geológico y Minero de España, recientemente adscrito al CSIC. Es también autora del libro de divulgación La edad de la Tierra (IGME-Catarata), del que ha sido adaptado este texto.

La dicotomía marciana. ¿Por qué Marte tiene dos hemisferios radicalmente distintos?

Por Juan Ángel Vaquerizo (CSIC-INTA)*

Marte tiene dos caras: el hemisferio norte está hundido, es una zona deprimida y muy lisa que presenta pocos impactos de meteoritos, mientras que el hemisferio sur está sobreelevado respecto al norte y está plagado de cráteres. Esta diferencia es lo que se conoce como dicotomía marciana. La disparidad entre hemisferios es una de las singularidades de nuestro vecino que ha despertado más curiosidad y, por ende, ha sido motivo de estudio desde su descubrimiento. Y aún sigue siéndolo, porque no existe consenso sobre el origen de esta característica fundamental del planeta, que refleja la historia geológica del mismo y también la posible presencia de agua en el pasado.

Mapa topográfico de Marte. / NASA/JPL

Mapa topográfico de Marte. / NASA/JPL

Desde los años sesenta del siglo XX, la exploración planetaria ha permitido aumentar el conocimiento sobre la geología y geografía marcianas –la geografía de Marte se conoce con el nombre de areografía, término proveniente de Ares (equivalente griego al dios romano Marte), y consiste en la caracterización y cartografiado de las regiones de Marte-. Gracias a las naves espaciales que han sobrevolado u orbitado el planeta, tenemos en la actualidad un gran conocimiento sobre sus accidentes geográficos y sus características superficiales: volcanes, cañones, antiguos lechos de río, canales de descarga y vastas regiones salpicadas de cráteres. Todos estos elementos permiten establecer los diferentes procesos geológicos que han tenido lugar a lo largo del tiempo, modelando el planeta rojo a escala global: vulcanismo, actividad tectónica, acción del agua líquida y del hielo y, claro está, impactos de meteoritos.

Para poder cartografiar la superficie de Marte, y en consecuencia las elevaciones del planeta, se definió un nivel de elevación cero o datum. Con el agua en mente, el datum marciano se define como la elevación en la que se alcanzan los valores de presión y temperatura del punto triple del agua, es decir, aquellos para los que el agua puede estar simultáneamente en los tres estados: sólido, líquido y gaseoso. Estos valores son una presión atmosférica de 610,5 Pa (6,1173 mb) y una temperatura de 273,16 K (0,01 oC). Para hacerse una idea, la cuenca más profunda de Marte y una de las mayores del Sistema Solar, Hellas Planitia, está muy por debajo del datum marciano y se encuentra a más de 7 kilómetros de profundidad.

Cráteres en Hellas Planitia. / ESA/DLR/FU Berlín

Cráteres en Hellas Planitia. / ESA/DLR/FU Berlín

Pero el descubrimiento de la dicotomía marciana llega con los primeros mapas completos del planeta. Entre 1998 y 1999 el instrumento Mars Orbiter Laser Altimeter (MOLA), un altímetro láser a bordo de la nave Mars Global Surveyor de la NASA, generó el mapa topográfico más preciso jamás realizado. MOLA recolectaba al día en torno a 900.000 medidas de elevación con una sensibilidad tan alta que el rango de error en elevación, de media, era de tan solo 13 metros. Con toda esta información -en total se utilizaron 27 millones de medidas de elevación recopiladas por el instrumento para conformar el mapa global-, se observó que la dicotomía de Marte tiene tres expresiones físicas globales:

Topografía de Marte

La parte norte del planeta es una inmensa depresión respecto a la parte sur. La dicotomía distingue entre las denominadas tierras altas (uplands) del sur y las tierras bajas (lowlands) del norte. Los datos altimétricos muestran que las tierras bajas son entre 3 y 6 km más bajas que las tierras altas del sur. Esta característica del relieve marciano recuerda la diferencia de elevación entre los continentes y los fondos oceánicos de la Tierra.

Densidad de cráteres de impacto

También existe una acusada diferencia en la densidad de cráteres de impacto, mucho menos numerosos en las tierras bajas del norte. En el hemisferio sur aparecen regiones plagadas de grandes cráteres y caracterizadas por superficies abruptas. En contraste, las lowlands situadas al norte presentan pocos cráteres grandes, su suelo es muy llano y muestran otros tipos de elementos que indican que han ocurrido extensos procesos de renovación de su superficie, como coladas de lava y grandes inundaciones.

Grosor de la corteza

Existe además una gran diferencia en el grosor de la corteza entre los dos hemisferios, mayor en las tierras altas del sur que en las tierras bajas del norte. Las uplands del sur tienen un grosor máximo aproximado de 58 km, mientras que las lowlands del norte apenas alcanzan los 32 km de grosor.

Estas tres manifestaciones físicas de la dicotomía no coinciden exactamente, de modo que no es posible trazar una frontera exacta de separación ni asegurar que todas ellas se deban a una misma causa. No obstante, se considera que el origen de la dicotomía es único y que produjo como resultado los tres aspectos observados. Asimismo, hay bastante acuerdo en que la dicotomía de Marte parece ser extremadamente antigua, que se originó en una etapa muy temprana del planeta, al comienzo de la evolución geológica de Marte, cuando la corteza estaba recién formada o terminando de formarse.

Mapas topográficos de relieve sombreado de muy alta resolución producidos por el equipo científico de MOLA. / NASA/MOLA

Mapas topográficos de relieve sombreado de muy alta resolución producidos por el equipo científico de MOLA. / NASA/MOLA

En la actualidad hay dos posibles hipótesis sobre el origen de la dicotomía: una endógena y otra exógena. La endógena establece que la dicotomía es el resultado de procesos convectivos asimétricos en el manto de Marte que produjeron el adelgazamiento de la corteza en la parte norte del planeta y un engrosamiento en el sur. La otra explicación, la exógena, parece contar con un mayor consenso y establece que la dicotomía es el resultado de un impacto gigantesco. Un impacto en Marte de un objeto de entre 1.600 y 2.700 km de tamaño -como los que existían en el Sistema Solar en la época estimada- habría sido capaz de crear una cuenca de impacto tan grande como Vastitas Borealis, nombre con el que se conoce a la inmensa llanura del hemisferio norte. El tamaño de esta zona, de 10.600 km de longitud y 8.500 km de anchura (Asia, Europa y Australia juntas), y su forma elíptica hacen plausible que sea el resultado de un gran impacto. Pero, por ahora, ese gran impacto es solo una hipótesis.

 

 

* Juan Ángel Vaquerizo es el responsable de la Unidad de Cultura Científica del Centro de Astrobiología (CSIC-INTA) y autor del libro Marte y el enigma de la vida (CSIC-Catarata) de la colección ¿Qué sabemos de?

El clavo: la especia protagonista de la primera vuelta al mundo

Por Esteban Manrique Reol (RJB-CSIC)*

A principios del siglo XVI, se desató en Europa una verdadera vorágine por el descubrimiento de nuevas tierras y tesoros. Durante las décadas y siglos siguientes, una inmensa cantidad de información cartográfica, semillas de plantas tropicales, especias, plantas medicinales y, sobre todo, especímenes vegetales inundaron los gabinetes de historia natural y los jardines botánicos europeos. Una de las plantas más emblemáticas de este periodo fue el clavo de olor. Sin duda, tenía todos los componentes para ser protagonista de una película de aventuras: intriga, ambición, riqueza, misterio…

Las especias no solo fueron muy importantes económicamente hablando, sino que también sirvieron para impulsar el crecimiento y el desarrollo del conocimiento del mundo natural y de la ciencia botánica en particular. En los siglos venideros, especialmente durante el siglo XVIII, las expediciones a los nuevos territorios ya siempre incluirían a geógrafos, geólogos, botánicos y zoólogos, entre otros naturalistas, pertenecientes a los más prestigiosos gabinetes de historia natural y jardines botánicos. La descripción exacta de la planta o el animal para su posterior reconocimiento, así como de sus hábitats naturales, pasó a ser un elemento importante de las expediciones.

Mapa de las islas Molucas, 1594. / Petrus Plancius/Claesz

El árbol del clavo de olor –conocido popularmente como ‘clavero’ (Sizygium aromaticum)­– puede alcanzar los seis metros de altura y sus flores reúnen una serie de características (sabor, olor, capacidad de conservación de alimentos, propiedades medicinales) que hicieron que esta especia fuera ya objeto de comercio en la Antigüedad. Hay restos arqueológicos del III milenio a. C. en Terqa, Siria, que nos hacen pensar que entonces ya había un activo comercio de clavo de olor entre Oriente Medio, la India y las islas del sudeste asiático, de donde es originaria la planta.

La misteriosa procedencia del clavo

Sin embargo, y a pesar de que las referencias sobre el clavo dadas por Plinio el Viejo en el siglo I apuntaban hacia la India, el origen del clavo fue un misterio durante muchos siglos. Hay que tener en cuenta la cantidad de relatos fantasiosos que transmitían los viajeros en la época de las grandes expediciones. Y, para mayor confusión, se sabe que algunos mapas se falseaban a propósito.

Sizygium aromaticum. Köhler’s Medizinal-Pflanzen (vol II, 1890)

El clavo de olor o aromático es, de todas aquellas especias asiáticas que alcanzaban Europa, por la que se llegaba a pagar los precios más altos. Fluctuaba mucho, pero se dice que el precio del kilo de clavo se tasaba en oro. Había, pues, un gran interés en mantener oculta su procedencia. Ejemplo de ello es el Atlas Miller elaborado en Portugal hacia 1519, que mostraba datos falsos para impedir que otros navegantes, particularmente españoles, pudieran llegar al lugar de las especias.

A mediados del siglo XV, Niccolò Da Conti se convirtió en el primer europeo en informar con cierta precisión sobre la procedencia de la especia. Esta información fue presentada por el monje y cosmógrafo Fra Mauro en su obra maestra, el Mapamundi (1459). De alguna manera, Da Conti estaba poniendo en manos de los portugueses el comercio mundial de las especias y propiciando la caída del monopolio veneciano y otomano en la comercialización de los productos provenientes del Oriente.

Mapamundi o hemisferio circular del Atlas Miller (c. 1519)

El dominio portugués

A partir de 1511, los portugueses se establecieron definitivamente en Asia y así tuvieron acceso directo a los mercados y productos del Lejano Oriente. Pronto, Alfonso de Albuquerque intentó establecer relaciones amistosas con los gobernantes locales y alianzas comerciales con proveedores de drogas y especias, clavo en particular. En 1513 los viajes entre los puertos portugueses en Malaca (en la actual Malasia) y Ternate (islas Molucas, actual Indonesia) llegaron a ser regulares. Jorge de Albuquerque fue nombrado capitán general de Malaca en 1514. En enero de 1515 envió una misiva del rey de Ternate a Manuel I prometiendo lealtad al soberano portugués, y también envió un regalo peculiar: un tronco de árbol de clavo y una pequeña rama con algunas hojas y capullos de flores. A partir de este momento los portugueses conocieron en detalle el aspecto del árbol y con ello se hicieron con el control de la producción y el comercio de clavo de olor.

Eran pues las islas Molucas el misterioso lugar donde crecía de forma exclusiva (endémica) el árbol del clavo de olor, pero solo lo hacía en las montañas de cinco islas del archipiélago. En concreto, los mejores clavos eran los provenientes de la isla de Ternate.

De la primera vuelta al mundo a la expansión del clavo

La lucha por el comercio del clavo no había hecho más que empezar. De hecho, esta especia fue la protagonista absoluta de la primera vuelta al mundo. Fernando de Magallanes, tras la negativa del rey Manuel I a financiar un nuevo viaje a su cargo, pues Portugal ya tenía establecida una ruta por oriente para llegar a las islas de las Especias, presentó en 1519 a Carlos I su audaz plan de una ruta alternativa viajando hacia el oeste: fue la expedición de Magallanes y Elcano (1519-1522). Después del largo viaje transoceánico de tres años de duración, la nave Victoria retornó a Sanlúcar de Barrameda tras realizar la primera circunnavegación de la historia. Aunque Magallanes murió en Filipinas, regresaron Juan Sebastián Elcano y Antonio Pigafetta, relator del viaje. En el informe presentado al emperador, el cronista italiano incluía una muy clara descripción del árbol de clavo.

El navegante Fernando de Magallanes descubrió en 1520 el Estrecho de Magallanes, durante la expedición española a las Molucas. Cuadro del pintor chileno Álvaro Casanova Zenteno (1857-1939)

Posteriormente, debido a la relevancia económica de esta especia, franceses y holandeses consiguieron sacar semillas de clavero de las islas originarias e introdujeron la planta en otras áreas tropicales. Los primeros en plantar el árbol del clavo fuera de su lugar de origen fueron los franceses, quienes lo introdujeron en las islas Mauricio durante el siglo XVIII. Más tarde se introdujo en el suroeste de la India, Sri Lanka, Zanzíbar y Madagascar.

Propiedades químicas del clavo y su uso en la actualidad

Además de los capullos de flores aromáticos, hay otras dos partes del clavero que se utilizan como especias: los pedúnculos florales y los frutos. El aroma proviene de varios compuestos volátiles que constituyen el aceite esencial del clavo y que se obtiene por destilación en etanol. La composición en principios activos y aromas es compleja e interesante ya que es la especia que tiene más cantidad de eugenol, el principal principio activo del aceite esencial.

En relación a su peso seco, el clavo contiene entre el 15 y el 20% de aceite esencial, en el que el eugenol es el principal componente (entre el 85 y el 95% del aceite esencial). El eugenol también se encuentra en otras especias como la nuez moscada (miristicáceas) y la canela (lauráceas). El químico italiano Ascanio Sobrero (1812-1888), descubridor de la nitroglicerina, aisló el eugenol a mediados del siglo XIX y, a partir de entonces, se empleó en medicina. Una de sus mayores propiedades es la de ser un eficaz antioxidante. De ahí su utilización en la conservación de alimentos.

Hoy el clavo como especia se sigue usando ampliamente en todas las cocinas del mundo. Su mercado no ha disminuido desde el siglo XV, sino muy al contrario. Son muchos los trabajos científicos que han publicado estudios de las propiedades terapéuticas del clavo o de los componentes de su aceite esencial, principalmente del eugenol. El tipo y número de productos en los que se añade el clavo de olor o su esencia ha ido creciendo exponencialmente en todos los sectores, tanto en medicina como en cosmética y, por supuesto, en la alimentación.

 

* Esteban Manrique Reol es doctor en biología y actual Director del Real Jardín Botánico de Madrid (CSIC). Este texto es una adaptación del capítulo que firma dentro del libro de la colección Divulgación En búsqueda de las especias. Las plantas de la expedición Magallanes-Elcano (1519-1522) (CSIC-Catarata), coordinado por Pablo Vargas. El libro se presenta el jueves 13 de mayo de 2021 a las 12:00 horas en el Real Jardín Botánico, en un acto con entrada libre que también podrá seguirse online.

Agroecología, la agricultura de la biodiversidad

Por Mar Gulis (CSIC)

¿Sabías que los suelos acogen una cuarta parte de la biodiversidad de nuestro planeta? El suelo es uno de los ecosistemas más complejos de la naturaleza y uno de los hábitats más diversos de la Tierra. Cobija infinidad de organismos diferentes que interactúan entre sí y contribuyen a los procesos y ciclos globales que hacen posible la vida.

Sin embargo, el uso que hacemos de él se encuentra entre las actividades humanas que más inciden en el cambio global y climático. Los modelos agrícolas dominantes durante los últimos cien años, junto con el sobrepastoreo y la deforestación, son responsables de un deterioro del suelo que implica la desertificación y la transferencia de grandes cantidades de carbono desde la materia orgánica que se encuentra bajo nuestros pies hacia la atmósfera, lo que contribuye al calentamiento global y, por ende, afecta a la salud de los seres vivos.

¿Es posible un modelo agroalimentario que ayude a regenerar los ecosistemas y que, a su vez, asegure los alimentos y la salud en un planeta con más de 7.700 millones de seres humanos y en pleno cambio climático? De ello se ocupa la agroecología, una disciplina que integra los conocimientos de la ecología, la biología, las ciencias agrarias y las ciencias sociales.

Primeros brotes en la huerta del proyecto agroecológico L’Ortiga, en el Parque Natural de Collserola, provincia de Barcelona.

La agroecología establece las bases científicas para una gestión de los sistemas agrarios en armonía con la salud de los ecosistemas y de las personas. Y esto lo hace estudiando las relaciones entre los organismos biológicos (cultivos, ganado, especies del entorno y, por supuesto, organismos del suelo), los elementos abióticos (minerales, clima, etc.) y los organismos sociales implicados en el proceso (desde las comunidades agrícolas y los hogares hasta las políticas agrarias y alimentarias globales).

También lo hace fomentando la capacidad de los agroecosistemas para autorregularse. Esta capacidad es muy importante, pues tanto las plagas como otras enfermedades son menos frecuentes en los sistemas biológicos equilibrados y este equilibrio es el que asegura la rentabilidad y la estabilidad en la producción. Para ello, la agroecología se preocupa por el mantenimiento de la mayor diversidad posible en el ecosistema, especialmente la diversidad funcional: cuando lo que importa no es tanto el número de especies como su función dentro del agrosistema y lo que cada una aporta al conjunto. Esto es algo que difícilmente se da en la agricultura convencional, ya que, como explican los investigadores Antonio Bello, Concepción Jordá y Julio César Tello en Agroecología y producción ecológica (CISC-Catarata), con el uso generalizado de agroquímicos la biodiversidad queda muy reducida o prácticamente eliminada.

Vegetales agroecológicos. Cooperativa Germinando Iniciativas Socioambientales, Madrid.

Para preservar esta biodiversidad se emplean prácticas agrarias que regulan de forma orgánica tanto las poblaciones de patógenos como de organismos que naturalmente son mejoradores del suelo. Un ejemplo de esto es la extendida tradición de introducir leguminosas en los cultivos. Las plantas de la familia leguminosae, de las que forman parte las legumbres, establecen naturalmente simbiosis con rizobios, bacterias del suelo con el potencial de fijar el nitrógeno atmosférico. Esta unión aporta cerca del 80% del total del nitrógeno atmosférico fijado de forma biológica y proporciona a las plantas el segundo nutriente más necesario, después del agua, para su crecimiento.

La milpa tradicional mesoamericana es un cultivo de origen precolombino que incluye maíz (Zea mays L.), calabaza (Cucurbita spp.) y frijol (Phaseolus vulgaris L.). Como explican en el diplomado ‘Alimentación, comunidad y aprendizaje’ del grupo Laboratorios para la Vida (LabVida) de ECOSUR Chiapas (México), la milpa se caracteriza por una sinergia entre estos tres cultivos que favorece su rendimiento en conjunto y genera resiliencia ante perturbaciones externas, además de ofrecer proteínas completas al combinar estos alimentos.

Suelos vivos versus suelos degradados

Con este planteamiento incluso los organismos eventualmente patógenos tienen su función en los cultivos. Al haber una diversidad mucho mayor, estos organismos patógenos no llegan a ser tan invasivos ni a causar grandes daños, y el ecosistema se puede autorregular fácilmente con solo introducir especies adecuadas. Un ejemplo de esto son las mariquitas (coccinélidos) y otros insectos que depredan a los pulgones. Otro ejemplo es el de los nematodos, un grupo de animales mayormente microscópicos y potencialmente patógenos que ocupa el cuarto filo más numeroso del reino animal en cuanto al número de especies. Los nematodos son los principales herbívoros del suelo y, junto con los hongos, son uno de los principales grupos descomponedores de la materia orgánica. La actividad de estos invertebrados es fundamental para la renovación de las raíces, pues permite optimizar su capacidad de absorber agua y nutrientes para el correcto desarrollo de las plantas. Según la agroecología, los nematodos causan problemas solo en los sistemas desequilibrados y hay maneras de controlar su población y los problemas de plagas desde un manejo ecológico, como por ejemplo introduciendo especies con propiedades repelentes o nematicidas.

Huerta agroecológica de Ruth Labad, quien produce para el grupo de consumo Xurumelxs en Ourense, Galicia.

La recuperación ecológica de suelos degradados, cuando es posible, se produce con prácticas que ayudan a la salud de todo el ecosistema agrario: abonando con materia orgánica libre de tóxicos, mediante la gestión de cultivos y utilizando las características funcionales de las plantas, principalmente. Para ello se emplean los policultivos (rotativos e intercalados), así como una mayor variedad de semillas y especies vegetales. También se alternan los pequeños invernaderos dentro del cultivo y las plantas que ejercen de barreras ecológicas naturales frente a posibles agentes patógenos, como algunas hierbas aromáticas. Además, se usan coberturas vegetales, que ayudan en la conservación del agua y del suelo y regulan la temperatura del terreno, así como la presencia de malas hierbas. Con estas y otras estrategias se favorece la salud de la microbiota del suelo y de todos los organismos de los que depende el ciclo de nutrientes y la buena respiración del suelo.

El Concello de Allariz, en Galicia, es pionero en la gestión de residuos orgánicos: recogen y compostan los residuos de los restaurantes para ofrecer abono orgánico a los agricultores de la zona.

Frente a la agricultura industrial, orientada de manera lineal a los insumos y productos, que rompe con los ciclos del agua, los elementos y los nutrientes de la naturaleza, que depende de los insumos fósiles para mantener la producción y que contribuye al cambio climático, la agroecología comprende la complejidad de la naturaleza y la interdependencia entre los organismos. Además, la agroecología considera los sistemas agrarios como ecosistemas que han llegado a ser equilibrados tras años de experiencia y conocimiento campesino, y se enriquece de toda la diversidad de saberes propios de cada región, clima y ecosistema. Por eso, la mayoría de las veces pone en práctica programas de investigación multidisciplinares en los que se integra y armoniza el conocimiento científico con el saber tradicional de las comunidades agricultoras y ganaderas locales.

Huerto escolar del CEIP Venezuela, en Madrid, dinamizado por Germinando Iniciativas Socioambientales.

Por otro lado, como señalan Bello, Jordá y Tello, establece que los ‘problemas del campo’ no son solo asunto de las personas que se dedican a la agricultura y la ganadería, sino que, por sus repercusiones, requieren de la participación y el compromiso del conjunto de la sociedad. Este compromiso debe estar fundamentado en la soberanía alimentaria (entendida como el derecho de la ciudadanía a elegir qué quiere o no quiere comer) y orientado a desarrollar un modelo alimentario justo, responsable y solidario, que se pregunte cómo se producen los alimentos y cuáles son sus implicaciones tanto sociales como ambientales. Por todo ello, se prefieren los pequeños mercados locales y la venta directa por parte de los grupos productores agrarios, lo cual ayuda a reducir las emisiones de gases de efecto invernadero y los costes asociados al transporte internacional de alimentos y a las grandes superficies de producción y venta.

Venta directa de productos de la iniciativa Barazkilo Agroecologiko, en Bizkaia.

Para saber más:

Te contamos por qué son tímidos los árboles

Por Mar Gulis (CSIC)

Hace décadas apareció en la literatura científica el concepto de “timidez de los árboles” para referirse a un curioso fenómeno que se puede observar en los bosques: los árboles de la misma especie y, en ocasiones, de especies diferentes, mantienen sus copas a una distancia prudencial de los ejemplares adyacentes. Es decir, las copas de determinadas especies de árboles frondosos crecen dejando unos espacios o grietas, a modo de canales, entre sí y los otros ejemplares. Así, se desarrollan sin afectar (y casi sin tocar) al resto de individuos.

En una fotografía aérea presentada en la 17ª edición de FOTCIENCIA, su autor, Roberto Bueno Hernández, señala en el texto que la acompaña que aún no hay una explicación definitiva para esta curiosidad botánica. De hecho, hoy se tiende a pensar que quizá no hay una sola y única causa para la “timidez” de los árboles, sino que en cada especie en la que se da (pues no se da en todas), ese mecanismo adaptativo se desarrolla de diversas maneras y por razones diferentes. En este texto vamos a resumir las principales hipótesis que explican este fenómeno.

La imagen 'La timidez de los árboles' forma parte de la exposición y el catálogo de FOTCIENCIA17. / Roberto Bueno Hernández

La imagen ‘La timidez de los árboles’ forma parte de la exposición y el catálogo de FOTCIENCIA17 (CSIC-FECYT). / Roberto Bueno Hernández

  1. Hipótesis de la fricción o de la abrasión mecánica

Esta hipótesis fue presentada por el botánico australiano Maxwell Ralph Jacobs, quien por vez primera utilizó, en los años 50 del pasado siglo, la palabra “timidez” para referirse a esta manera en la que algunos árboles se retraen ante otros. Según su planteamiento, la abrasión o el roce que producen unas hojas contra otras cuando se ven azotadas por los vientos o las tormentas sería la causa de este fenómeno, pues se produciría una especie de “poda recíproca” debido a la fricción. Ahora bien, en la actualidad la comunidad científica baraja otro tipo de explicaciones que veremos a continuación.

  1. Hipótesis de los fotorreceptores

Los árboles, y las plantas en general, deben adaptarse a las condiciones de luz para sobrevivir y asegurar su fotosíntesis y desarrollo. A diferencia de los animales, las plantas no pueden trasladarse de lugar ante las condiciones adversas o en busca de ambientes que les sean más favorables, por lo que parece que han desarrollado mecanismos, a través de fotorreceptores o “sensores de luz”, mediante los cuales pueden detectar y sentir diferentes intensidades y longitudes de onda para optimizar su crecimiento. De este modo, tienen la posibilidad de minimizar los posibles daños por exceso o defecto de radiación adaptándose a las diferentes condiciones del entorno. Así, según esta explicación, la acción de los fotorreceptores haría que los brotes más cercanos al dosel arbóreo crecieran menos al acercarse a sus vecinos, pues es donde menos cantidad de luz recibirían.

El fenómeno de la "timidez de los árboles" se puede observar fundamentalmente en los bosques con especies de eucaliptos, pinos y hayas.

El fenómeno de la «timidez de los árboles» se puede observar fundamentalmente en bosques con especies de eucaliptos, pinos y hayas.

  1. Hipótesis de la alelopatía

La tercera explicación relaciona este fenómeno con la alelopatía, mecanismo por el cual los organismos cercanos, de una misma especie o de especies diferentes, se envían señales químicas. Estos compuestos bioquímicos, o aleloquímicos, pueden tener efectos (positivos o negativos) sobre su crecimiento, reproducción o incluso sobre su supervivencia. El envío de compuestos químicos entre árboles, generalmente de la misma especie (aunque no solo) supone algún tipo de comunicación entre ellos, como explicaban en una entrada anterior de este blog los investigadores Rafael Zas y Luis Sampedro, de la Misión Biológica de Galicia del CSIC. Según la científica forestal canadiense Suzanne Simard, esta “comunicación química de los árboles” se daría en mayor parte bajo tierra a través de las redes micorrizales (es decir, de la simbiosis entre los hongos y las raíces de los árboles y las plantas) y formaría parte de toda una compleja red de cooperación entre especies para asegurar el beneficio mutuo. Esto es, Simard plantea un escenario donde los árboles, más que competir, cooperan para su supervivencia, formando parte de una simbiosis mutualista. Actualmente, esta tercera hipótesis parece ser la más respaldada por la comunidad científica.

Aunque probablemente no haya una explicación única para la timidez de los árboles, es indudable que estamos ante un mecanismo adaptativo que puede hacernos ver los bosques con otros ojos; al margen de nuestros problemas humanos, incluso de nuestra timidez.

¿Cómo lograr las emisiones cero? La solución está en el subsuelo

Por Víctor Vilarrasa (CSIC)*

En pocos años, para poder cumplir con los objetivos climáticos del Acuerdo de París de limitar el aumento de temperatura por debajo de 2 °C, y preferiblemente por debajo de 1,5 °C, muchos de nuestros desplazamientos tendrán que hacerse en coches eléctricos. Tras circular sin emitir gases de efecto invernadero, será necesario cargar el automóvil. ¿Pero de dónde procederá la energía con la que lo carguemos?

Por descontado, tiene que ser de origen renovable para no emitir dióxido de carbono (CO2) por otro lado. La mayoría de las veces tendremos que cargar el coche de noche, cuando por razones obvias los paneles fotovoltaicos no pueden producir electricidad. Tampoco hay garantías de que el viento sople cada noche, ni de que haya oleaje. La energía hidroeléctrica podría proporcionar parte de la demanda, pero difícilmente podrá satisfacerla por completo dado que el agua es un bien preciado y escaso, y su consumo se prioriza frente a la producción de energía. La solución al problema está bajo nuestros pies.

Energía geotérmica

Central geotérmica de Nesjavellir (Islandia).

La Tierra es una fuente inagotable de energía geotérmica. En la corteza terrestre, la temperatura aumenta de media 30 °C por cada kilómetro a medida que nos dirigimos hacia el interior de la Tierra. Por lo tanto, en torno a los 4 kilómetros de profundidad respecto a la superficie acostumbramos a encontrar temperaturas superiores a los 100 °C. Si hacemos circular agua hasta esas profundidades y la devolvemos a la superficie una vez se ha calentado, produciremos vapor de agua, ya que el agua entra en ebullición a 100 °C y a presión atmosférica. Este vapor lo podemos utilizar para mover turbinas que generen electricidad sin emitir emisiones de gases de efecto invernadero.

El vapor de agua, después de turbinado, se enfría y se condensa, pero mantiene una temperatura elevada, cercana a los 80 °C. El agua caliente resultante se puede utilizar como fuente de calor para proporcionar calefacción a un gran número de viviendas, con lo que eliminaremos también las emisiones de CO2 asociadas a calentar nuestras casas en invierno.

Un almacén subterráneo de energía

En verano, la demanda de calor es menor, por lo que habrá un excedente que conviene almacenar. De nuevo, el subsuelo nos proporciona la solución. El excedente de agua caliente se puede inyectar o hacer circular por un intercambiado de calor en el subsuelo. Este proceso aumenta la temperatura del suelo, que puede almacenar el calor durante largos periodos de tiempo con unas pérdidas de energía pequeñas. Para recuperar el calor, no hay más que inyectar agua fría y dejar que ésta se caliente al circular por el suelo que hemos calentado previamente.

El calor no es la única fuente de energía que tendremos que almacenar en la transición hacia un sistema económico con emisiones netas de carbono nulas. De hecho, las fluctuaciones de las renovables, tanto en la producción a lo largo del día como entre las diferentes estaciones del año, exigen disponer de cantidades inmensas de almacenamiento para poder utilizar los excedentes en periodos en los que la producción sea menor que la demanda. El almacenamiento necesario no se podrá cubrir con baterías, por gigantes que las lleguemos a construir.

eneergía eólica

Uno de los mayores desafíos de las energías renovables son sus fluctuaciones.

Una solución que se plantea es producir combustibles que no contengan carbono, como el hidrógeno, a partir de los excedentes de energía renovable; y luego almacenarlos para utilizarlos en periodos de escasez de producción de este tipo de energía. Garantizar la demanda energética en esos periodos implicará almacenar millones de toneladas de hidrógeno. Uno de los mejores lugares para hacerlo son las capas permeables con alta porosidad del subsuelo, que permiten que el combustible se inyecte y recupere con facilidad.

Captura de CO2 bajo tierra

El reto de descarbonizar la economía va más allá de producir energía limpia con las renovables y electrificar los modos de transporte. Existen procesos industriales que difícilmente pueden dejar de emitir CO2, ya que este gas de efecto invernadero es el resultado de las reacciones químicas que tienen lugar en diversos procesos productivos. Por ejemplo, la fabricación de acero y cemento conlleva la emisión de CO2.

Las emisiones asociadas a procesos industriales representan el 20% de las emisiones actuales. La solución a estas emisiones vuelve a estar en el subsuelo. En este caso hay que capturar el CO2 antes de que sea emitido a la atmósfera, para lo que existen diferentes técnicas, y posteriormente inyectarlo en formaciones geológicas profundas para su almacenamiento permanente. Con esto, no estaríamos más que devolviendo el carbono a su lugar de origen, ya que el carbono que hemos emitido y seguimos emitiendo a la atmósfera proviene de la quema de combustibles fósiles, que hemos extraído y extraemos del subsuelo.

Campo de géiseres El Tatío (Chile).

Aunque hacemos vida sobre él, el hecho de no poder ver lo que hay en el subsuelo lo convierte en un gran desconocido. Y, como todo lo desconocido, produce temores y cierta desconfianza. Sin embargo, no nos podemos permitir excluir los recursos geológicos en el gran reto de alcanzar la neutralidad de carbono. No existe una única solución para conseguir la descarbonización y necesitamos de la contribución de todas las tecnologías disponibles.

Al igual que el resto de tecnologías, las relacionadas con el subsuelo no están exentas de riesgos, como por ejemplo la sismicidad inducida, desafortunadamente conocida en España por los terremotos del almacén de gas de Castor. La investigación científica en geoenergías pretende minimizar esos riesgos para poder contar con el subsuelo en la descarbonización. Los recursos geológicos, como origen del problema, deben formar parte también de la solución.

 

* Víctor Vilarrasa es investigador del Instituto de Diagnóstico Ambiental y Estudios del Agua (IDAEA-CSIC) y del Instituto Mediterráneo de Estudios Avanzados (IMEDEA, CSIC-UIB). Actualmente dirige un proyecto del European Research Council (ERC) para aumentar la viabilidad de las geoenergías.

Zeolitas en Etiopía: una solución ecológica contra la fluorosis

Por Mar Gulis (CSIC)

¿Te has preguntado alguna vez por qué aparecen manchas en los dientes? El tabaco o el vino tinto son algunas de las causas que te vendrán a la cabeza más rápidamente. Entre la multitud de motivos posibles que encontrarás, nos detendremos en uno que va más allá del esmalte dental: la fluorosis. Además de las manchas que produce en los dientes, esta enfermedad ósea causada por el consumo excesivo del ión fluoruro (conocido como flúor) en la dieta, sobre todo a través del agua, puede provocar osteoesclerosis, calcificación de los tendones y ligamentos, deformidades de los huesos, y otras afecciones.

Fuente de agua potabilizada

Fuente de agua potabilizada por la tecnología del CSIC en Etiopía. / César Hernández.

Según estima la Organización Mundial de la Salud (OMS), la fluorosis afecta a unos 300 millones de personas en el mundo. No en vano, la OMS considera que el flúor es una de las diez sustancias químicas que constituyen una preocupación para la salud pública, entre las que también figuran el amianto, el arsénico y el mercurio, entre otras.

A pesar de que el fluoruro tiene efectos beneficiosos para nuestra dentición como la reducción de las caries, la presencia de elevadas cantidades de este elemento en el agua puede convertirlo en un contaminante natural. Consumir agua con una concentración de fluoruro superior a 1,5 miligramos por litro (límite establecido por la OMS) puede provocar problemas de salud asociados a la fluorosis, como los antes citados, y es especialmente perjudicial para mujeres en estado de gestación y niños/as que están formando sus huesos.

La existencia de flúor en el agua tiene un origen geológico, es decir, se debe a que el agua está en contacto con rocas de acuíferos que tienen el ion fluoruro en su composición química. Estas rocas se hallan en terrenos volcánicos, por tanto, más de 25 países en todo el mundo están afectados por la contaminación de fluoruros en el agua, entre los que se encuentran España, China, India, Estados Unidos y Etiopía. En este último país, el 41% de sus fuentes de agua potable tienen una concentración de fluoruro superior a 1,5 mg/l y se calcula que aproximadamente el 15% de la población etíope está afectada por fluorosis.

Zeolitas naturales

Mineral de Estilbita, zeolita natural de Etiopia. / Defluoridation Ethiopia.

Filtros naturales para atrapar el fluoruro

Etiopía es uno de los países pertenecientes al valle del Rift, junto con Kenia, Uganda y Tanzania. En la zona del valle del Rift etíope, “donde se abra un pozo, va a haber contaminación por fluoruro y, por tanto, la enfermedad tiene elevados números”, asegura Isabel Díaz, investigadora del CSIC en el Instituto de Catálisis y Petroleoquímica (ICP). Díaz es además una de las inventoras de una tecnología que permite extraer el fluoruro del agua de una manera barata y sostenible.

Esta tecnología está basada en zeolitas naturales, un mineral abundante en Etiopía, así como en otros lugares del mundo, ya que también es de origen volcánico. “Su principal característica es que es un material muy poroso, lleno de cavidades de tamaño molecular”, explica la científica del CSIC. Gracias a esta estructura, las zeolitas tienen la capacidad de atrapar una amplia variedad de elementos, como sodio, potasio, calcio y magnesio, y son utilizadas como catalizadores y absorbentes en un gran número de procesos químicos industriales, sobre todo en la industria petroquímica.

Estructura zeolita

Estructura atómica de la Estilbita. En azul moléculas de agua, verde cationes calcio y morado cationes sodio. / Defluoridation Ethiopia.

Con la nueva tecnología desarrollada por el grupo del ICP —además de Isabel Díaz como investigadora principal, forman parte del equipo los científicos Joaquín Pérez Pariente y Luis Gómez Hortigüela—, junto con la Universidad de Adís Abeba, se modifica la zeolita para que absorba selectivamente el ion fluoruro. “De esta forma es posible abastecer a la población de agua potable”, afirma Díaz. Esta solución resulta primordial en el valle del Rift en Etiopía, dado que el agua de los pozos en la zona tiene una concentración de fluoruro de 2-3 mg/l, prácticamente el doble del límite que establece la OMS.

Planta potabilizadora

Planta potabilizadora con zeolitas en Etiopía. / César Hernández.

Aunque este tipo de métodos basados en absorbentes generan una gran cantidad de residuos tras su uso, una de las mayores ventajas de la zeolita es que luego puede usarse como fertilizante del suelo. En la actualidad, se han instalado dos plantas potabilizadoras con zeolitas en las localidades etíopes Dida y Obe, gracias al proyecto Defluoridation Ethiopia, del CSIC y la ONG Amigos de Silva. Esta acción supone un primer paso para que empiece a mermar la cifra de 14 millones de personas en riesgo de padecer fluorosis que, según los estudios, viven en el país africano.

 

Sumérgete en el océano desde casa: una propuesta del CSIC para explorar los ecosistemas marinos

Por Mar Gulis (CSIC)

3, 2, 1… ¡Al agua! Este viaje comienza con los habitantes más pequeños del océano: protozoos, microalgas, virus, bacterias y animales microscópicos como los tardígrados o las pulgas de agua. Aunque no los vemos a simple vista, son millones de seres diminutos que cumplen un papel esencial para el funcionamiento de los ecosistemas marinos. Este fascinante micromundo te espera en ‘El océano en casa’, un proyecto del Instituto de Ciencias del Mar (ICM-CSIC) que ofrece todo tipo de materiales para que el público infantil se sumerja en las aguas oceánicas sin moverse del sofá.

Solo tenéis que entrar en su web y elegir entre varios bloques temáticos que dan a conocer la biodiversidad marina y la importancia de los mares en nuestro día a día. Si os decantáis por el epígrafe ‘Un océano con muchas características’, encontraréis lecturas, dibujos para colorear o rompecabezas y enigmas sobre los distintos ambientes marinos que hay en el planeta. También podréis probar el juego ‘De tierra o de mar’ o experimentar el viaje que realiza un grano de arena desde los Pirineos hasta el cañón de Palamós.

La web del proyecto, cuyos contenidos fueron inicialmente publicados en catalán y ahora se han traducido al castellano, está llena de recursos para niñas y niños curiosos. Por ejemplo, los epígrafes ‘El océano: un mar de ríos’, ‘Las praderas del mar’ y ‘Animales del océano’ incluyen animaciones de la NASA, experimentos caseros, unidades didácticas y hasta cuentos y cómics para aprender qué son las corrientes marinas, ver prados de posidonia y conocer la diversidad animal que esconden mares y océanos.

El viaje no ha hecho más que empezar, porque el bloque titulado ‘El océano y nosotros/as’ está repleto de contenidos para seguir buceando y descubriendo organismos fascinantes. A través de varios vídeos, en el primer apartado, dedicado a las medusas, entenderéis por qué estos animales nos pican cuando nos bañamos en la playa, qué necesitamos para identificarlos y cómo actuar en caso de una picadura. Quienes quieran saber más sobre estos extraños invertebrados podrán también participar en el proyecto de ciencia ciudadana ‘Observadores del mar’.

La aventura continúa con ‘Buques oceanográficos’, donde encontraréis información sobre las grandes embarcaciones donde muchos científicos y científicas investigan a la vez el océano. Si estáis listos para embarcar, buscad el vídeo que os llevará a bordo del Sarmiento de Gamboa, uno de los buques oceanográficos del CSIC.

Hay más. Los epígrafes ‘El fitoplancton’, ‘Basura marina’ y ‘Océano y atmósfera’ contienen audiovisuales para descubrir ese universo de microbios y pequeños organismos acuáticos o calibrar el impacto que tienen los microplásticos y otros residuos en el mar. En esos apartados se puede acceder a otro montón de actividades para realizar en casa: experimentos, guías didácticas o incluso fichas para colorear y entender el ciclo del agua.

Si el mundo marino os engancha, estad atentos a la web de ‘El océano en casa’ porque habrá nuevos contenidos. ¡Y participad! El Instituto de Ciencias del Mar os anima a enviar comentarios, preguntas o sugerencias a la dirección de correo electrónico oceanliteracy@icm.csic.es. Al otro lado de la pantalla, alguien dedicado a investigar el universo marino os contestará.

 

 

Ciencia online: más de 100 conferencias de divulgación del CSIC para ver en casa

Por Mar Gulis (CSIC)

¿Por qué el cambio climático es un problema urgente? ¿De qué está hecho el universo? ¿Cómo se extinguieron los Neandertales? ¿Tiene la vida un origen extraterrestre? Estos días de confinamiento suponen una excelente oportunidad para saciar tu curiosidad científica. Las más de 100 charlas para todos los públicos que el Consejo Superior de Investigaciones Científicas (CSIC) ofrece en sus canales online te ayudarán a buscar respuestas a estas y otras muchas preguntas. Además, te permitirán conocer los últimos avances de la ciencia por boca de investigadores e investigadoras que trabajan en una gran variedad de campos, como la demografía, la biología, la geología o la física teórica.

Fernando Valladares

Fernando Valladares, investigador del Museo Nacional de Ciencias Naturales (MNCN-CSIC), en una de sus charlas sobre cambio climático.

Del universo a las partículas elementales

Si lo que te interesa son los meteoritos, las estrellas o la vida extraterrestre, puedes asomarte al impresionante catálogo de conferencias del Ciclo Lucas Lara, organizado por el Instituto de Astrofísica de Andalucía (IAA-CSIC). En ellas no solo oirás hablar de astronomía, sino también de asuntos como la inteligencia artificial, el dolor o los mosaicos de La Alhambra.

En caso de que te vaya más la física ‘pura y dura’, las conferencias del Instituto de Física Teórica (IFT-CSIC/UAM) no te defraudarán. El bosón de Higgs y el misterio de la masa, el fin del espacio-tiempo o las misteriosas propiedades de los neutrinos son solo algunas de las muchísimas cuestiones tratadas en ellas. De todas formas, la física del CSIC no se agota aquí. En esta misma área del conocimiento, tampoco puedes perderte las charlas del Instituto de Física Fundamental (IFF-CSIC), que se ocupan de temas como la antimateria, los mitos de la física cuántica o la computación cuántica.

La investigadora Laura López-Mascaraque, del Instituto Cajal (IC-CSIC), habla de la ruta de los aromas de la nariz al cerebro en el ciclo ‘¿Qué sabemos de?’.

Para saber de todo

Para quienes no tengan tan definida una temática de interés, el ciclo Jam Science ofrece la oportunidad de ver a investigadores e investigadores de perfil muy diverso hablando de su trabajo en un ambiente muy distendido: nada más y nada menos que un bar. Organizada por la científica del CSIC Carmen Fernández, esta iniciativa ha abordado cuestiones como el enigma de los Neandertales, el posible origen extraterrestre de la vida en nuestro planeta, la exploración antártica o la importancia de las vacunas. Los vídeos de estas charlas están disponibles en los canales de Youtube DC SciCommAgora Mundi Ciencia.

Otro ciclo de contenido científico amplio que te permitirá aumentar tus conocimientos son las Friday Talks. ‘Música y neurociencia’, ‘Un nuevo océano en la era del plástico’ o ‘Gatos y tigres… ¿bajo el mar?’ son títulos de algunas de las intervenciones recogidas por esta propuesta del Instituto de Ciencias del Mar (ICM-CSIC).

Y aún hay más. ¿Qué somos capaces de hacer editando genes? ¿Cómo sabe el cerebro lo que la nariz huele? ¿Se va a convertir la Comunidad Valenciana en un desierto? Estos interrogantes sirven de partida a tres de las conferencias del ciclo ‘¿Qué sabemos de?’ con el que la Delegación del CSIC en Valencia te propone indagar en las claves científicas del bienestar.

Los Neandertales son el eje de esta charla de Antonio Rosas, del MNCN-CSIC, en el ciclo Jam Science.

Cambio climático y geología

Volviendo a temáticas más específicas, el investigador del Museo Nacional de Ciencias Naturales (MNCN-CSIC) Fernando Valladares te invita a reflexionar sobre el cambio climático y los desafíos que plantea en su serie de vídeos La salud de la humanidad, en la que intercala conferencias con varias piezas informativas de elaboración propia. Y en una línea similar, Daniel García-Castellanos, del Instituto de Ciencias de la Tierra Jaume Almera (ICTJA-CSIC), comparte su pasión por la geología en sus charlas sobre megainundaciones, tectónica de placas y erosión del suelo.

Y para terminar, puedes darte una vuelta por los ciclos Demografía hoy y ¿Qué sabemos del arte rupestre?, así como los seminarios de la Estación Biológica de Doñana. Estos vídeos, de contenido algo más especializado que los anteriores, te permitirán profundizar en las cuestiones que tratan.

Como ves, tienes muchas conferencias para elegir. ¿Por cuál quieres empezar?

Si quieres conocer más recursos del CSIC para aprender ciencia desde casa, pincha aquí.

Te mostramos en un minuto las mejores imágenes científicas de FOTCIENCIA17

Por Mar Gulis (CSIC)

La extraordinaria anatomía de los caballitos de mar retratada a través de cuatro técnicas lumínicas, una imagen de microscopio que nos muestra los grandes ojos compuestos de los mosquitos o los surcos geométricos de un cultivo sostenible de cebada observados desde un dron. Estas son algunas de las siete propuestas seleccionadas en la 17ª edición de FOTCIENCIA, una iniciativa del Consejo Superior de Investigaciones Científicas (CSIC) y la Fundación Española para la Ciencia y la Tecnología (FECYT), con apoyo de la Fundación Jesús Serra, que trata de acercar la ciencia a la sociedad mediante la fotografía.

Las enormes antenas en forma de abanico que algunas luciérnagas de Brasil utilizan para detectar las feromonas del sexo opuesto o la asombrosa estructura del nanoplancton marino amenazado por el cambio climático en el Mediterráneo son otros de los fenómenos reflejados en las imágenes, que han sido escogidas por un comité compuesto por profesionales relacionados con la fotografía, la microscopía y la comunicación científica.

Las dos fotografías restantes llaman nuestra atención sobre los microplásticos que se encuentran en los organismos que constituyen la base de la cadena trófica marina y que llegan a los consumidores finales, los seres humanos, así como sobre el hecho de que la naturaleza es química y que la química está en la naturaleza. Puedes ver todas ellas en el vídeo que acompaña a este post.

Con estas imágenes y una selección más amplia de entre las cerca de 450 presentadas, próximamente se realizará una exposición itinerante y un catálogo.

Para saber más sobre las imágenes escogidas, pincha aquí.

En esta 17ª edición, FOTCIENCIA se ha sumado a los 17 Objetivos de Desarrollo Sostenible declarados por Naciones Unidas.