Archivo de mayo, 2022

¿Cómo surgieron la agricultura y la ganadería? Tres hipótesis sobre el origen del Neolítico

Por Juan F. Gibaja, Juan José Ibáñez y Millán Mozota (CSIC)*

El Neolítico fue un período clave de cambio para la humanidad. Hace unos 12.000 años en Próximo Oriente, por primera vez, una sociedad cazadora y recolectora se convirtió en sedentaria basada en la domesticación vegetal y animal. Los cambios que se produjeron en todos los ámbitos fueron tan extraordinarios como irreversibles. Y aunque el desarrollo y la expansión de las comunidades neolíticas duró varios miles de años, el proceso de neolitización fue muy rápido y apareció en momentos distintos en diferentes áreas del mundo de forma independiente. Pero, ¿por qué sucedió? ¿Qué llevó a aquellas sociedades a dar el salto y convertirse en neolíticas?

La agricultura neolítica. / Luis Pascual Repiso

Existen varias hipótesis para explicar este proceso fundamental. La primera remite a una razón poblacional: el Neolítico fue una respuesta a una crisis alimentaria causada por el crecimiento demográfico, en un momento y en unas condiciones determinadas. El antropólogo Mark Nathan Cohen, en su libro La crisis alimentaria de la Prehistoria, señala que el crecimiento natural de la población a escala global, una vez que los recursos naturales habían llegado a su límite, demandaba nuevas fuentes de recursos: la agricultura y la ganadería. Sin embargo, no se ha podido documentar tal periodo de hambruna global previo al Neolítico.

De hecho, el aumento poblacional parece ser una consecuencia del Neolítico, más que una causa. El crecimiento demográfico se vio reforzado por la reducción de la movilidad, lo que favorecía el desarrollo exitoso de embarazos y partos, además de la introducción de la leche y los cereales en la dieta, que contribuía a acortar el periodo de lactancia y, por ende, los intervalos entre nacimientos. Además, durante el Mesolítico, el período precedente al Neolítico, los vegetales que crecían espontáneamente ya formaban parte de su dieta. Por tanto, gracias a su recogida, las sociedades adquirieron un conocimiento detallado sobre las plantas, sus propiedades y ciclos de crecimiento, lo cual fue fundamental para poder domesticarlas.

Esto se enlaza con la siguiente hipótesis, una explicación cultural según la cual las comunidades llegaron a un nivel de dominio de la naturaleza y de desarrollo social que les permitió iniciar el cambio. Ya desde el Mesolítico se crearon diferentes ‘culturas’ relacionadas con la confección de distintos instrumentos y sistemas técnicos. Uno de los motivos del origen social del Neolítico contempla que la agricultura y la ganadería habrían sido promovidas e impuestas por individuos que querían acumular riqueza. Hay dos tendencias al respecto. Por una parte, se plantea que la creación de un superávit productivo permitió su almacenamiento y la aparición de un grupo social que se apropió de él. Y por otra, se contempla que la búsqueda del interés individual formaba parte de la personalidad de algunas personas que tendían a imponerse al resto.

Las sociedades mesolíticas. Reconstrucción del asentamiento de Mondeval (Dolomitas Bellunesi, Belluno, Italia). / Imagen de A. Guerreschi, diseño de M. Cutrona

Asimismo, el Neolítico fue, ante todo, un cambio de mentalidad, una nueva manera de ver la naturaleza y dominarla. El nacimiento de los dioses, de una religiosidad antes desconocida, habría sido el elemento clave que arrastró a los factores económicos y sociales.

Tercera hipótesis: un cambio climático

La tercera hipótesis que podría explicar el origen de esta nueva forma de vida es la climática. Es decir, que las novedades llegaron en respuesta a un cambio climático que limitó los recursos de las sociedades cazadoras, pescadoras y recolectoras.

El clima y la vegetación experimentaron importantes transformaciones durante la ventana temporal en la que se produjeron los cambios que dieron lugar al Neolítico. Después del Último Máximo Glacial, hace unos 23.000-19.000 años, el clima comenzó a atemperarse. Tuvo lugar un aumento general de las temperaturas y la humedad que culminó en los inicios del Holoceno, hace alrededor de 11.500 años, cuando se fijaron las principales características del clima que disfrutamos en la actualidad.

Dentro de esta tendencia hacia un clima más benigno y húmedo, se produjo una súbita pulsión fría y seca, denominada Dryas Reciente. Esta pulsión coincide con los primeros indicios de cambios hacia el Neolítico en Próximo Oriente, lo que ha llevado a plantear que quizá el inicio de la agricultura fue una respuesta al cambio climático. Lo que está claro es que, una vez iniciada la agricultura, los ciclos agrícolas se beneficiaron de la regularidad climática del Holoceno.

Sin embargo, durante los inicios del Holoceno también hubo súbitas pulsiones frías. Es decir, a pesar del clima mucho más templado y benigno, hace 8.200 años se produjo un periodo abrupto de frío y sequedad, acompañado en ciertas zonas como la cuenca mediterránea de procesos de deforestación natural y episodios de lluvias torrenciales. Este momento está siendo ampliamente analizado, ya que coincide, en buena parte, con el inicio de la expansión neolítica por Europa. Y es que, esta crisis climática conllevó efectos negativos en la productividad de los recursos marinos, lo que provocó el abandono de ciertos territorios próximos a la costa por parte de esas últimas comunidades mesolíticas.

Mapa sobre la neolitización de Europa. / D. Gronenborn

¿Con qué hipótesis sobre el origen del Neolítico nos quedamos? Lógicamente, estas tres teorías no son excluyentes entre sí, y podrían combinarse para obtener una visión más precisa y real. No habría, por tanto, un motor único. Además, los cambios se produjeron de manera progresiva, a lo largo de milenios, lo que indica que, probablemente, las sociedades prehistóricas no percibieran la dimensión de los cambios que estaban protagonizando.

 

*Juan F. Gibaja, Juan José Ibáñez y Millán Mozota, de la Institución Milá y Fontanals del CSIC, son autores de El Neolítico de la colección ¿Qué sabemos de? (CSIC-Catarata).

Ciencia de lo cotidiano: el experimento en una cocina que se publicó en ‘Nature’

Por Alberto Martín Pérez (CSIC)*

¿Has visto que hay insectos capaces de caminar sobre el agua? Es un fenómeno cotidiano pero muy sorprendente. Y, aunque parezca magia, no lo es. Si lo fuera, al preguntarnos por qué ocurre, la única respuesta que obtendríamos sería un frustrante “porque sí”. Por suerte, la ciencia nos proporciona respuestas mucho más gratificantes.

‘La gota que colma la moneda’, fotografía seleccionada en FOTCIENCIA13, en la modalidad La ciencia en el aula / Aránzazu Carnero Tallón y Mª de los Ángeles de Andrés Laguillo

Lo que hacen estos insectos es aprovechar un fenómeno conocido como tensión superficial del agua. El agua (y cualquier otro líquido) tiene una propiedad muy curiosa: su superficie se comporta como un sólido elástico. Si recibe fuerza sobre su superficie, se deforma y, cuanta más fuerza recibe, mayor es su deformación. Dicho con otras palabras: la superficie del agua se comporta igual que una cama elástica.

Pero, ¿por qué los insectos pueden obrar el ‘milagro’ de caminar sobre las aguas y los seres humanos nos tenemos que conformar con aprender a nadar? La analogía de la cama elástica nos vuelve a dar la respuesta. Si en una cama elástica depositamos un peso demasiado grande, la lona se romperá y caeremos al suelo. Ocurre lo mismo en el agua, aunque el peso mínimo para romper su superficie es mucho menor que en el caso de la lona. Como los insectos tienen un peso minúsculo, pueden caminar sobre el agua sin romper su superficie mientras que las personas, al tener un peso mayor, rompemos la superficie del agua al rozarla.

Los insectos tienen un peso minúsculo que les permite caminar sobre el agua sin romper su superficie

La tensión superficial del agua en un experimento de Agnes Pockels

Ahora que conoces una posible explicación a este hecho cotidiano, ¿te lo crees o intentarías comprobarlo? Puede que mucha gente no se moleste en hacerlo pensando que para hacer una demostración científica se necesita utilizar máquinas y métodos muy complejos. Sin embargo, esta idea está tan equivocada como extendida. Aunque es cierto que no podemos construir en casa un acelerador de partículas como el LHC del CERN o un súper telescopio como el James Webb, lo cierto es que puede haber ciencia en todo lo que hacemos, hasta en las acciones y objetos más simples del día a día (cocinar, hacer deporte, escuchar música…). Podemos hacer y aprender mucha ciencia a partir de los fenómenos cotidianos; solo tenemos que fijarnos un poco en aquello que nos rodea. De hecho, la científica que en el siglo XIX sentó las bases del estudio de la física y química de las superficies fue Agnes Pockels, que utilizó exclusivamente objetos de su cocina.

Pockels era una científica poco convencional. No pudo estudiar en la universidad y su ocupación no era la que esperarías, ya que no era profesora ni investigadora, sino ama de casa. Pero consiguió superar las barreras para dedicarse a la ciencia e ideó el siguiente experimento. Llenó una cubeta con agua hasta hacerla rebosar y, después, depositó una lámina de metal muy fina sobre la superficie, que quedaba flotando –igual que los insectos que hemos mencionado antes–. Al mirar la cubeta de frente, se apreciaba a simple vista cómo la superficie del agua se deformaba cerca de la lámina.

Este experimento sería suficiente para probar que lo que ocurre con los insectos es cierto, pero Pockels quiso ir más lejos y decidió estudiar cómo cambia la tensión cuando se disuelven distintas sustancias en el agua. Utilizó azúcar, sal o alcanfor que encontró en su cocina-laboratorio, y con una regla midió cuánto se deformaba la superficie del líquido al depositar la lámina. Si la deformación es más grande en el caso de la disolución que en el agua pura, la sustancia disuelta disminuía la tensión superficial del agua y viceversa. Gracias a este sencillo método, Pockels llegó a conclusiones de gran importancia en física y química relacionadas con la estructura de la materia a escala atómica. Las investigaciones de Pockels fueron tan relevantes que acabaron publicándose en la revista Nature y sentaron las bases para investigaciones posteriores.

Este no es un caso aislado. Hay muchísimos fenómenos físicos y químicos que se pueden observar y comprobar fácilmente a través de situaciones y objetos de uso cotidiano. La ciencia no es algo reservado en exclusiva a las universidades y los laboratorios de investigación. Olvidarse de esta faceta cotidiana significa perderse la mejor parte de la ciencia.

*Alberto Martín Pérez es investigador en el grupo de Optomecánica del Instituto de Ciencia de Materiales de Madrid (ICMM) del CSIC. Con el objetivo de romper la equivocada idea de que la ciencia es algo opaco e inaccesible, lleva a cabo el proyecto de divulgación ‘La mejor parte de la ciencia’. Con vídeos breves (Tik Tok, Instagram, Twitter y YouTube) muestra que la ciencia se encuentra en nuestra vida cotidiana a través de preguntas aparentemente simples: ¿te has fijado que cuando caminas, conduces o vas en bicicleta utilizas las tres leyes del movimiento de Newton?, ¿sabías que al practicar fútbol, tenis o baloncesto usas el tiro parabólico? o ¿te has parado a pensar que al cocinar preparas disoluciones y se producen reacciones químicas?

‘Quorum sensing’, el Twitter de las bacterias

Por Julián Guercetti (CSIC)*

Hoy nos resulta imposible pensar en un mundo sin redes sociales. Aunque es cierto que estas plataformas digitales nos rodean desde hace poco tiempo, han cambiado la forma en la que interactuamos y nos comunicamos de una manera radical. ¿Y qué dirían si les aseguro que llegamos tarde a tener la autoría sobre tamaño descubrimiento? Aunque sea difícil de creer, los seres humanos no fuimos los primeros en utilizar redes sociales sobre la Tierra. La realidad es que en la naturaleza existen organismos unicelulares que nos llevan miles de años de ventaja desarrollando sus propias redes de formas muy diversas… y además sin necesidad de wifi.

Las bacterias pertenecen al grupo de organismos más primitivos que lograron habitar la Tierra desde tiempos inmemorables y utilizan una red social denominada quorum sensing (QS) a través de la cual pueden comunicarse. Curiosamente, esta se asemeja mucho a Twitter. ¡Sí, acaban de leer que las bacterias tienen algo parecido a Twitter! Si no lo tomamos de manera literal, podemos decir que las dos herramientas comparten ciertas similitudes que vamos a discutir a continuación.

El descubrimiento de este sistema de comunicación se remonta a 1970, cuando un grupo de investigación que trabajaba con bacterias marinas logró demostrar que estos microorganismos –hasta ese momento se creía que no interactuaban entre sí– realmente podían comunicarse. La clave de esta historia es la bioluminiscencia, un fenómeno que también se observa en las luciérnagas y muchos otros organismos que, a través de una serie de reacciones químicas, son capaces de emitir luz.

Lo que llamó poderosamente la atención al equipo científico fue que, al acumularse muchas bacterias en un cultivo, aumentaba la bioluminiscencia. Mientras que, si la cantidad de bacterias era baja, la luz permanecía apagada. Fue así como este grupo se comenzó a plantear que de alguna manera las bacterias debían comunicarse para ponerse de acuerdo y decidir cuándo podían emitir luz. Ese comportamiento parecía estar asociado a la cantidad de bacterias que había en el lugar, es decir, que dependía de la densidad poblacional.

Dejando atrás la parte histórica, para cualquier usuaria o usuario de Twitter esta red social no tendría sentido sin los mensajes, los tuits de máximo 280 caracteres. En cambio, las bacterias crearon sus propios mensajeros químicos a los que llamamos autoinductores. Este tipo de ‘tuits’ son básicamente moléculas que generan las bacterias y que pueden ser detectadas por otras que se encuentren próximas, lo que les permite recibir el mensaje.

¿Cómo funciona la red social bacteriana?

Como dijimos, el QS es una red social bacteriana, pero, ¿cómo funciona? Para hacernos una idea debemos pensar que las bacterias son como influencers que se pasan el día generando autoinductores. Por lo tanto, cuando la cantidad de bacterias en un sitio aumenta de manera significativa, y cada una de ellas genera su autoinductor, estas moléculas comienzan a acumularse hasta alcanzar una concentración crítica, que enciende la alerta de que ya no queda mucho espacio en ese lugar y deben cambiar su comportamiento. Es decir, que después de tanto escribir y retuitear el mensaje, este se vuelve tendencia y ahora todas las bacterias saben que allí no cabe ni una más.

En microbiología las bacterias se pueden clasificar en dos grandes grupos basándose en una tinción diferencial conocida como tinción de Gram, en honor a su creador Christian Gram. Esta técnica permite obtener una primera aproximación acerca de la estructura de cada bacteria al diferenciarlas entre Gram+ y Gram-. Con los grandes avances en esta área, hoy sabemos que, dependiendo del tipo de bacteria, el mecanismo de quorum sensing puede ser diferente. Por ejemplo, en el caso de las bacterias Gram+ sus mensajes o autoinductores consisten en un tipo de moléculas denominadas péptidos, mientras que los mensajes de las bacterias Gram- son moléculas orgánicas pequeñas, muy diferentes a nivel estructural a las de las bacterias Gram+.

A partir del trabajo de muchos grupos de investigación, pudimos entender que cada tipo de bacteria es capaz de utilizar un mecanismo de quorum sensing para comunicarse con las de su misma naturaleza, por lo que se trata de una red social específica. Pero, al mismo tiempo hay sistemas que permiten la comunicación entre distintos tipos de bacterias e incluso con otros microorganismos, a las que podríamos denominar redes sociales universales. Por tanto, es evidente la complejidad que pueden presentar los distintos mecanismos de comunicación entre organismos tan diminutos que carecen de bocas y manos, pero que pueden organizarse mejor que nosotros.

Resistencia a antibióticos

Actualmente sabemos que las bacterias utilizan el QS como estrategia para regular cientos de comportamientos grupales como la bioluminiscencia, así como otros un tanto nocivos para la salud humana. Son los casos de la resistencia a antibióticos, la virulencia e incluso la formación de biopelículas. Este último fenómeno supone un gran problema dado que consiste en un consorcio bacteriano que logra asentarse de forma permanente en una superficie (órganos del cuerpo, instrumental quirúrgico, implantes, etc.) y son muy difíciles de remover e incluso generan mayor resistencia a los antibióticos. Un claro ejemplo del famoso refrán que dice “la unión hace la fuerza”.

En muchos laboratorios se trabaja para intentar descifrar el contenido de esos mensajes y poder interrumpir la comunicación entre las bacterias para evitar que se pongan de acuerdo y ataquen al organismo. El uso de los antibióticos es cada vez más limitado debido a la gran capacidad de resistencia que generan y por eso resultan necesarias nuevas estrategias de tratamiento para infecciones bacterianas que no se basen en este principio. En nuestro grupo de investigación del CSIC intentamos determinar si la presencia de estos autoinducotres y otras moléculas del quorum sensing podrían ser útiles como biomarcadores de una infección bacteriana y así adelantarnos a su tratamiento y evitar futuras complicaciones.

 

*Julián Guercetti es investigador en el grupo Nanobiotecnología para el Diagnóstico, del Instituto de Química Avanzada de Cataluña del CSIC. Ha sido finalista de FameLab España 2021.

“¿Qué me pasa, doctor?” La visita médica a finales de la Edad Media y principios de la Moderna

Por Raúl Villagrasa-Elías (CSIC)

Marie Curie y el radio, Wilhelm C. Röntgen y los rayos X y Alexander Fleming y la penicilina son algunos de los descubrimientos que vertebran la historia de la ciencia y la medicina. Nos fascina imaginar que la historia es una acumulación de esfuerzos individuales (la mayoría de varones ilustres) cuya suma fundamenta el progreso. Suelen ser inventos trascendentales que marcan un antes y un después. Ocurre lo mismo cuando miramos hacia atrás en el tiempo y analizamos episodios como la caída del Imperio romano, la peste negra, la imprenta, la conquista de América, las guerras mundiales…

¿Y si algunos de los fenómenos más trascendentales de nuestra sociedad fueron progresivos y comunitarios? La democratización, la industrialización y la alfabetización de un país no se consiguen en un día. La conformación del sistema sanitario tampoco y precisamente en eso vamos a fijarnos en este viaje en el tiempo, en una escena que seguramente todo el mundo (salvando la distancia temporal) habrá experimentado en sus propias carnes y, si no, en las de algún familiar o amigo. Así era una visita médica hospitalaria a finales de la Edad Media.

El hospital, un “invento” medieval para las personas pobres

Documentamos los primeros hospitales de la península ibérica en los siglos XI y XII y, sin exagerar, podemos afirmar que ya en los siglos XIV, XV y XVI hubo varios cientos de ellos. A diferencia de lo que hoy imaginamos por hospital (instituciones sanitarias enormes con centenares de pacientes y profesionales), estos centros medievales solían ser edificios más pequeños (algunos tenían dos camas; los más grandes, varias decenas) y servían para atender a los enfermos pobres, por lo que reyes, obispos, nobles, ediles y grandes mercaderes rara vez aparecían por allí.

Puerta del Hospital de Santa Cruz en Toledo, fundado en 1496. Litografía de la Biblioteca Nacional de España (1842).

Pero, ¿quiénes eran las personas consideradas pobres? En aquellos siglos ser pobre era algo mucho más genérico de lo que entendemos ahora. Pobre era la anciana que quedaba viuda y sin hijos que la cuidaran; lo era el niño huérfano abandonado fruto de una relación extramatrimonial; el soldado que después de una guerra quedaba incapacitado; la trabajadora de la construcción que se caía de un andamio, o el campesino que contraía la lepra y necesitaba cuidados especiales. En definitiva, pobre era cualquier persona que, aun teniendo algo de dinero, no contaba con lazos sociales como la familia o los vecinos ante los vaivenes de la vida.

Ayer y hoy, más similitudes que diferencias

A finales de la Edad Media, las ciudades crecieron y con ellas el número de personas pobres también aumentó. Para hacer frente a esta emergencia social los gobiernos urbanos promovieron hospitales de mayores dimensiones y dotados con completos equipos profesionales: médicos (conocidos como físicos en la época), cirujanos, barberos, boticarios, enfermeros y enfermeras, nodrizas, capellanes para la cura del espíritu y todo un sinfín de criados y esclavos que se encargaban de las tareas más pesadas.

Consecuencia de lo anterior, a finales de la Edad Media y en el tránsito hacia la Moderna, se institucionalizaron los sistemas sanitarios y, por extensión, la visita médica hospitalaria. Y, en realidad, si eliminamos los aparatos electrónicos que hoy encontramos en una planta de cualquier hospital, el funcionamiento ya era el mismo. Las mujeres enfermas estaban separadas de los hombres (hoy difícilmente encontraremos habitaciones mixtas), las camas estaban numeradas para reconocerlas rápidamente y en el hospital zaragozano de Santa María de Gracia en 1508 ya se colocaban tablillas al lado de cada una para identificar a los pacientes y sus medicamentos.

Una plantilla completa, coordinada y jerarquizada

Los físicos o médicos eran el personal con mayor responsabilidad, salario y formación. El hospital de la villa aragonesa de Híjar ya contaba en 1312 con un “físico cristiano o judío que sabía de medicina”. Estos profesionales valoraban, sobre todo, las enfermedades internas del cuerpo como fiebres o dolores estomacales. Interrogaban al enfermo sobre su estado, auscultaban sus pulsos, comprobaban las orinas y revisaban los tratamientos prescritos el día anterior.

Cirujano colocando un brazo dislocado, 1450. Autor desconocido. Francia.

Por otra parte, los cirujanos (a veces conocidos como barberos-cirujanos) practicaban su arte sobre tejidos, articulaciones y huesos: muelas, heridas, amputaciones, luxaciones, fracturas, etc. Una sanadora musulmana fue contratada en Valencia en 1396 para curar el brazo de un niño pequeño, ya que el médico del hospital no había podido hacerlo. Ambos, médicos y cirujanos, debían “ordenar las mediçinas y emplastos” y “dar las reçetas d’ello al rector del dicho hospital para que lo faga façer”, según las ordenanzas del hospital de Tordesillas (Valladolid) de 1467.

Inmediatamente después encontrábamos en el escalafón sanitario a la persona encargada de supervisar la enfermería, que era el enfermero mayor y tenía a su cargo a las enfermeras y enfermeros menores, quienes velaban día y noche al doliente, le ayudaban en la ingesta de alimentos, limpiaban las sábanas y aplicaban los tratamientos prescritos por médicos y cirujanos con productos farmacéuticos elaborados por los boticarios. En algunos hospitales conocemos incluso las ratios teóricas entre enfermeros y pacientes: en Ávila en 1507 lo ideal era una relación de 1 a 6, mientras que en Toledo en 1499 ascendía a 8. Desde luego, son cifras más asequibles que las actuales, con un profesional de enfermería por 15-20 pacientes en hospitales o 150-200 en residencias de mayores.

Así pues, la imagen que tendría el enfermo no sería muy diferente a la actual: postrado en el lecho observaría cómo dos, tres o cuatro personas le rodeaban e inspeccionaban, en definitiva, un equipo sanitario que curaba y cuidaba.

Raúl Villagrasa-Elías es investigador en el Departamento de Estudios Medievales del Instituto de Historia del Centro de Ciencias Humanas y Sociales del CSIC. Actualmente trabaja en el proyecto Scripta manent: De registros privados a textos públicos. Un archivo medieval en la Red” (PID2020-116104RB-I00).

Claves para entender la escasez de los chips en Europa

Por Luis Fonseca (CSIC)*

Vivimos rodeados de chips. No solo están en productos como los móviles o los ordenadores, sino también en la automoción, la producción industrial de ropa o alimentos y en sectores críticos como el de la instrumentación médica, la seguridad o la defensa. Por eso cuando escasean estos semiconductores, como ocurre en la actualidad, saltan las alarmas. Pero, ¿por qué faltan chips? Aunque en los últimos meses se haya hablado mucho de ello, desde el Instituto de Microelectrónica del CSIC en Barcelona trataremos de aportar nuestro punto de vista.

Antes, apuntalemos algunos conceptos previos

El primero es el de la electrónica, que es la rama de la física que estudia los movimientos de los electrones libres y la acción de las fuerzas electromagnéticas y cómo utilizarlos para controlar la propia electricidad y gestionar todo tipo de procesos de información. No es poca cosa, porque, como predijo Michael Faraday en una difundida aunque oficiosa anécdota en la que señalaba que se acabarían pagando impuestos por la electricidad, hemos hecho de la electricidad y de la información uno de los vectores principales de nuestra sociedad en general y de nuestro sistema productivo y económico en particular. La primera revolución industrial se fraguó en torno al vapor, pero las protagonistas de las posteriores revoluciones han sido la electricidad, la electrónica y la información.

Ilustración del experimento de M. Faraday en 1831 donde muestra la inducción electromagnética entre dos bobinas. /Grabado de J. Lambert (1892)

El transistor, por su parte, es el componente electrónico fundamental que nos puso en el disparadero de la modernidad y de la transición hacia la sociedad de la información. Este abuelo de los microchips cumple 75 años en 2022. Se trata de un dispositivo que actúa como interruptor dejando pasar corriente a través de sí en función de si se le activa una señal de control. Unos y ceros (señal de entrada) generando unos y ceros (señal de salida) son la encarnación del bit y la magia de la lógica binaria que nos lleva desde el modesto transistor hasta un superordenador. La microelectrónica y la nanoelectrónica han permitido hacer esos transistores más pequeños y más rápidos hasta poder integrar en el mismo chip millares, decenas de millares, millones, miles de millones, millones de millones de transistores… Por ello ahora hablamos de memorias de terabytes y de procesadores que ejecutan billones de instrucciones por segundo.

Chip diseñado en el IMB-CNM que permite el registro neuronal de 1024 canales uECoG para aplicaciones de rehabilitación del habla (proyecto Europeo BrainCom FETPROACT-2016-732032).

La micro y nanoelectrónica son, por tanto, la orfebrería extrema que nos permite llegar hasta el “infinito informático” y más allá. Las memorias y los procesadores se hacen en fábricas de semiconductores (foundries) que son, a día de hoy, la sublimación de la complejidad tecnológica y el máximo exponente de la eficiencia y la productividad. Para producirlos se orquestan con precisión centenares de procesos en grandes espacios (clean rooms o ‘salas blancas’) que se mantienen bajo condiciones cuidadosamente controladas: temperatura y humedad estables, ausencia de vibraciones y un aire más limpio que el de un quirófano.

Una crisis de sistema productivo

Aunque la fabricación de chips tiene sus propios retos tecnológicos, ligados a los límites de la miniaturización continua, la crisis de los chips no es tecnológica, sino económica y de sistema productivo. Y no se debe a una única razón, sino a una serie de “catastróficas desdichas”. Esta crisis ha puesto de manifiesto que nuestro sistema hiperespecializado y ultraconectado no se defiende bien ante grandes perturbaciones. Parece evidente que la deslocalización de la producción y los esquemas de just in time en aras de la eficiencia económica suponen un importante riesgo cuando el transporte global no está asegurado y supone un costo elevado, y aquí el coste de la energía juega un gran papel.

Imagen de chip diseñado y fabricado en el IMB-CNM que contiene un sensor electroquímico inteligente para aplicaciones de salud y control de calidad (proyecto Europeo Pasteur CATRENE CT204).

Las grandes perturbaciones que sacuden al sistema productivo han sido la pandemia y, en cierta medida, el cambio climático, que se han aliado con la localización extrema en la producción de chips: aproximadamente el 85% de ellos se fabrican en Asia y hasta dos terceras partes solo en Taiwán, una isla del tamaño de Cataluña con una relación particular con la China continental. Precisamente, Taiwán vio afectada su producción de chips por un episodio severo de sequía, ya que el agua es un recurso importante en su fabricación.

La pandemia, por su parte, alteró notablemente el equilibrio entre la oferta y la demanda de semiconductores, que ya estaba tensionado por el impulso global y sostenido hacia una mayor digitalización. Una de sus principales consecuencias ha sido el aumento espectacular en la demanda de ocio electrónico y de herramientas de teletrabajo, así como la necesidad de dimensionar al alza toda la mega-infraestructura de interconexión asociada.

Relocalizar (en parte) la producción de chips

Consideremos algunos datos poco conocidos: construir una fábrica avanzada de semiconductores cuesta alguna decena de miles de millones de euros y ponerla en pie requiere mínimo dos años; el tiempo para conseguir un chip-en-mano no es muy diferente de los nueve meses de un embarazo; y, en un escenario de baja oferta, no toda la demanda es igualmente apreciada. En este sentido, los móviles y los ordenadores usan chips de mayor valor añadido, y más caros, que los que se usan en los vehículos. Móviles y ordenadores vieron aumentar sus pedidos durante la pandemia, y los vehículos redujeron y suspendieron los suyos a la espera de que se recuperara su propia demanda… pero, ahora que esta demanda ha aumentado, los productores de chips no tienen tanto aliciente en proporcionarlos cuando aún pasan apuros para cumplir con los pedidos de los primeros. La generación de millennials entiende que un problema en la interconexión digital global puede resolverse en minutos u horas, pero las personas boomers saben que reparar la interconexión física global (léase producir y transportar mercancías) requiere semanas o meses.

De la misma manera que es muy posible que la pandemia haga cambiar ciertos comportamientos para siempre, la crisis de los semiconductores puede alentar cambios duraderos. Tanto Estados Unidos como Europa tienen planes para aumentar su producción de chips. En el caso europeo, ese aumento de producción pasa por atraer empresas americanas o taiwanesas, pues no hay grandes productores locales de memorias y procesadores, y, por supuesto, no hay fabricas públicas de semiconductores ni se las espera. Conviene también no olvidar que los procesadores y las memorias son el rey y la reina en el tablero de los componentes electrónicos, pero hay otras piezas, todas necesarias, cuyo juego debe asegurarse también. Si los chips de los coches son alfiles o caballos, aún hay mucho peón que la crisis de los semiconductores amenaza con dejar atrás. Son chips de menor complejidad, pero igualmente necesarios, que podrían fabricarse en redes de salas blancas más pequeñas, de menor coste, y distribuidas geográficamente de forma que estén sometidas a menores vaivenes político-económicos.

*Luis Fonseca es investigador del CSIC y director en el Instituto de Microelectrónica de Barcelona (IMB-CNM, CSIC).