Entradas etiquetadas como ‘IA’

Computación neuromórfica: el salto de la inteligencia artificial a la inteligencia natural de las máquinas

Por Óscar Herreras (CSIC)*

Todos hemos oído hablar de la inteligencia artificial (IA) y de cómo poco a poco se expande a todos los sectores sociales, desde el control de calidad en cadenas de montaje o la regulación del tráfico en una gran ciudad, hasta el diagnóstico de patologías médicas o la producción de obras artístico-culturales, por muy estrafalarias que nos puedan parecer. No se nos escapa que el término “artificial” implica que las capacidades de una IA están construidas a partir de elementos manufacturados por el ser humano. Pero, ¿y el término “inteligencia”? Sin entrar en el inacabable (y divertido) debate de qué es o qué entendemos por inteligencia, es curiosa la sucesión de manifestaciones desde muchos ámbitos que niegan a las máquinas y dispositivos con IA, incluso futuras, una identidad equivalente a la de una persona. Conste que, como animal limitado que soy, comparto algunos de los temores y reservas detrás de esta actitud negacionista.

No obstante, ¿y si pudiéramos diseñar y construir dispositivos que ‘funcionen’ con una inteligencia inequívocamente natural? ¿Nos atreveríamos a decir entonces que estos dispositivos solo emulan las capacidades del intelecto humano? ¿Es posible replicar en un dispositivo artificial la intricada estructura de los circuitos cerebrales que hacen posible las capacidades cognitivas de los animales? Repasemos las claves que la neurociencia ha encontrado en las últimas décadas para explicar esto.

En primer lugar, al contrario que en un cerebro electrónico estándar, en el que la información se almacena en unidades independientes del procesador (discos, ‘la nube’, etc), los animales guardamos la información relevante obtenida en nuestra experiencia diaria alterando los circuitos cerebrales. A este proceso lo denominamos plasticidad neuronal, como detallábamos en esta otra entrada del blog. Así, las conexiones entre los miles de millones de neuronas que forman los circuitos corticales no son permanentes, pues se modifican cuando ocurren determinados patrones de actividad eléctrica generados por la experiencia sensorial o cognitiva. No tenemos unidades separadas de almacén y procesamiento, los circuitos en sí mismos son ambas cosas a la vez. Circuito diferente, persona diferente.

Esta es la teoría. Pero, ¿cómo la llevamos a la práctica en una máquina? Aquí viene otra clave fundamental. En los animales, la modificación de circuitos consiste en establecer nuevos contactos (nuevas sinapsis) o cambiar la fuerza de los ya existentes. Esto nos permite incorporar nuevos datos a, por ejemplo, asociaciones de objetos o conceptos (ideas) que ya tuviéramos, o establecer otras nuevas. La neurociencia ha confirmado estas propiedades repetidamente y ya se pueden replicar en el laboratorio. Muchos ya pensamos que estas claves son suficientes para explicar todas las capacidades cognitivas del cerebro de los mamíferos: la memoria, la imaginación, la lógica, la planificación, etc. Ahora bien, ¿están presentes estas características en los dispositivos actuales de IA?

A lo largo de la historia de la cibernética, los ingenieros sagazmente han puesto un ojo en los descubrimientos neurocientíficos, hasta el punto de que sus principales hitos han surgido tras replicar algún nuevo hallazgo sobre la estructura o el funcionamiento del sistema nervioso: no es mala idea tratar de emular la “máquina” pensante más compleja y potente. Lo cierto es que, al menos en el plano conceptual, existe un fuerte paralelismo entre la manera en la que un cerebro y un dispositivo IA aprenden: ambos cambian algunos de sus elementos para almacenar información o resolver un problema. La diferencia, como esbozaba antes, estriba en que en una IA los circuitos electrónicos impresos que unen sus partes no varían, la información no está en sus conexiones, se guardan en una lista (software) de una unidad separada. Vemos que la solución biológica es mucho más eficiente, la propia estructura cambiante de los circuitos nerviosos contiene tanto nuestra historia vital como nuestras capacidades.

Para emular esta extraordinaria solución biológica, en el programa Europeo de Investigación Human Brain Project (HBP), en el que participan decenas de grupos experimentales y teóricos de diferentes países, existen varios subproyectos que desarrollan lo que se denomina computación neuromórfica. En pocas palabras, están desarrollando ordenadores con una arquitectura de circuitos mutable. Los datos nuevos o las capacidades nuevas no se guardan en forma de unos y ceros en una unidad separada, sino en el propio mapa de conexiones. Estos ordenadores cambian la conectividad de sus circuitos a medida que aprenden a ejecutar eficientemente una tarea, y lo curioso es que el número de cambios puede ser tal que averiguar cuál es su mapa de conexiones después del aprendizaje plantea ya los mismos problemas a un investigador que un cerebro real. Esos cambios en el aprendizaje son tantos y tan complejos que mantener un listado de las nuevas conexiones sería ineficiente a medida que aumente el tamaño y las tareas de estos computadores neuromórficos.

Materiales con memoria

La capacidad de aprender que nos proporciona la plasticidad de las sinapsis no ha sido fácil de emular en los contactos eléctricos de un circuito impreso. Hemos tenido que esperar a la aparición en la década pasada de materiales con propiedades eléctricas extraordinarias para dar solución al último gran problema. Estos materiales, como el dióxido de titanio, pueden variar su resistencia eléctrica dependiendo de la corriente que ha pasado por ellos anteriormente. Se les denomina memristores (resistencias con memoria), y regulan la cantidad de corriente que dejan pasar dependiendo de su historia previa, esto es, de la corriente que ya circuló por ellos en el pasado, replicando fielmente el papel y funcionamiento de las sinapsis cambiantes entre neuronas. Ya no es necesario mantener los cambios (la experiencia) en una unidad separada. Recuerden, no se pierde la unidad de almacén de información, el circuito es la información.

La prueba de concepto ya ha sido publicada recientemente en la revista Scientific Reports En este artículo, el equipo investigador ha sido capaz de realizar conexiones entre una neurona electrónica y una neurona real utilizando dos de estas sinapsis de dióxido de titanio capaces de aprender. Ya no es necesario guardar los cambios en ninguna parte, todo es estructura cambiante, como en un cerebro real. En ordenadores neuromórficos con sinapsis variables todo es artificial menos, quizá, su funcionamiento. ¿Podemos decir que este tipo de ordenadores ha dado el salto de una IA a una inteligencia natural (IN)? Las diferencias entre la tecnología y la biología ciertamente se estrechan. A estas alturas, yo no sabría decir si el cerebro ‘piensa’ como una máquina o la máquina lo hace como un cerebro

* Óscar Herreras es investigador del Instituto Cajal del CSIC.

 

Radio cognitiva, la tecnología que hará más eficientes nuestros móviles

José M. de la Rosa (CSIC)*

Nos encontramos en los albores de la mayor revolución tecnológica que ha conocido la humanidad. Las primeras décadas del siglo XXI serán recordadas por la expansión de las tecnologías de la información y las comunicaciones (TIC) y de dispositivos como los teléfonos móviles, las tablets y los ordenadores personales. Gracias a ellos podemos acceder a la información a través de internet de una forma ubicua y con velocidades de conexión cada vez mayores.

Este desarrollo sin precedentes se debe en gran medida a la microelectrónica y los chips. Estos microingenios han evolucionado en los últimos 50 años de manera exponencial según la ley de Moore, y contienen miles de componentes en unos pocos nanómetros. Una de las consecuencias de este escalado es la integración de la microelectrónica en objetos de uso cotidiano, que ha dado lugar al denominado Internet de las cosas, IoT por sus siglas en inglés.

La computación neuronal artificial ya se ha comenzado a utilizar en algunos dispositivos comerciales

IoT comprende la interconexión de miles de millones de entidades ciberfísicas con una estructura híbrida software/hardware capaces de comunicarse entre ellas sin necesidad de intervención humana. La educación a través de plataformas de enseñanza virtual, la teleasistencia sanitaria personalizada, las operaciones bursátiles automatizadas, las redes energéticas inteligentes, la robotización en procesos industriales y redes de transporte, o los vehículos autónomos, son solo algunos ejemplos del sinfín de aplicaciones de IoT, cada vez más presente en nuestras vidas.

Para una implementación adecuada del Internet de las cosas se requiere el desarrollo de dispositivos electrónicos seguros y eficientes, tanto en coste como en consumo de energía. Tales dispositivos deben estar dotados de una cierta inteligencia y autonomía para poder tomar decisiones en tiempo real y ser robustos frente a las condiciones del medio en que se van a desenvolver. Y para que esto ocurra es necesario desarrollar tecnologías que hagan viable la construcción de un puente sólido entre el medio físico (real) y su versión virtualizada (digital).

Del 1G al 5G

Microfotografía de un chip del Instituto de Microelectrónica de Sevilla/ IMSE (CSIC-US)

Una de esas tecnologías para ‘construir puentes’ son las comunicaciones móviles. Hace poco más de un par de décadas, los terminales móviles eran simplemente teléfonos inalámbricos, cuya única funcionalidad era la transmisión de voz (primera generación o 1G), a la que se añadió posteriormente la transmisión de SMS en la segunda generación (2G), con velocidades de transmisión de unos pocos de kilobits por segundo. Con el desarrollo del 3G, los móviles pasaron a ofrecer servicios multimedia y conexión a internet de banda ancha con velocidades de acceso de varios Megabits/s (Mb/s). En la actualidad, la mayoría de las redes operan con terminales móviles de cuarta generación (4G), que permiten alcanzar velocidades de hasta centenares de Mb/s, y ya se empieza a implantar la red 5G, con velocidades de Gigabits/s (Gb/s).

Sin embargo, las comunicaciones móviles tienen un problema: las bandas del espectro electromagnético por donde se propagan las ondas radioeléctricas con la información transmitida por muchos aparatos electrónicos se pueden saturar y convertirse en un cuello de botella para la implementación práctica de IoT. Esto ha motivado la investigación y desarrollo de tecnologías para hacer un uso más eficiente y sostenible del espectro electromagnético. Una de ellas es la denominada radio cognitiva o CR por sus siglas en inglés.

En esencia, la radio cognitiva se basa en la convergencia de tecnologías de comunicación y de computación que permiten ajustar de forma autónoma y transparente para el usuario los parámetros de transmisión y recepción de los dispositivos electrónicos en función de la información que detectan del entorno radioeléctrico donde se utilizan. Para ello, dichos dispositivos han de incluir sistemas de comunicaciones en los que la digitalización (transformación digital de las señales que portan la información) se realice lo más cerca posible de la antena (tanto en el receptor como en el transmisor). Así, el procesamiento de la información se hace mediante software y puede ejecutarse en un microprocesador digital. Esto aumenta significativamente el grado de programabilidad y adaptabilidad de los terminales móviles a diferentes modos o estándares de comunicación.

Inteligencia artificial en nuestros móviles

Además de un sistema de comunicación basado en software, la radio cognitiva requiere del uso de algoritmos de inteligencia artificial (IA) para identificar de forma automática la banda óptima del espectro electromagnético en la que se pueda transmitir mejor la información. Con la inteligencia artificial se maximiza la cobertura, se minimiza el efecto de las interferencias y se incrementa la durabilidad y la vida útil de la batería, entre otras muchas ventajas.

Sin embargo, los microprocesadores empleados en dispositivos convencionales resultan ineficientes para realizar las tareas de inteligencia artificial requeridas en sistemas de radio cognitiva. Al llevarlas a cabo, estos dispositivos consumen mucha energía y reducen la durabilidad de la batería. Esto ha motivado la investigación de alternativas como los procesadores neuromórficos, los cuales realizan el tratamiento de la información inspirándose en el cerebro humano.

Esquema de funcionamiento de un procesador neuromórfico/ José M. de la Rosa

Hay tareas computacionales, como el cálculo, en las que los procesadores convencionales son más eficientes que el cerebro, pero otras, como el reconocimiento de patrones, son ejecutadas mejor por los sistemas neuronales. Es lo que ocurre, por ejemplo, en el reconocimiento facial, que el ojo y el cerebro humanos realizan de forma mucho más eficaz en términos de velocidad, precisión y consumo energético. En el caso de la radio cognitiva, los procesadores neuromórficos deben encargarse de reconocer patrones de señales radioeléctricas, que son las que transmiten la información en la telefonía móvil.

De hecho, la computación neuronal artificial ya se ha comenzado a utilizar en algunos dispositivos comerciales. Por ejemplo, la compañía Apple incorpora módulos neuronales de aprendizaje automático (o Machine learning) en sus procesadores más recientes incluidos en los últimos modelos de iPhone. Estos dispositivos contienen 8.500 millones de transistores integrados en una tecnología de 7 nanómetros. Otras compañías como Intel y Qualcom han desarrollado procesadores neuromórficos fabricados también en tecnologías nanométricas.

Aunque aún se está lejos de desarrollar ordenadores completamente basados en procesamiento neuronal, hay un interés creciente por integrar la inteligencia artificial en el hardware de los dispositivos. Esta es una de las líneas de investigación en las que se trabaja en el Instituto de Microelectrónica de Sevilla (CSIC-US). En un futuro, se espera poder incorporar procesamiento neuromórfico en chips de comunicaciones que hagan posible la realización de dispositivos IoT/5G más eficientes gracias al uso de la radio cognitiva.

*José M. de la Rosa es investigador del Instituto de Microelectrónica de Sevilla, centro mixto del CSIC y la Universidad de Sevilla.

¿Puede un robot diagnosticar una enfermedad mejor que un médico?

Por Ramón López de Mántaras y Pedro Meseguer (CSIC)*

La respuesta es ‘sí’. Pero, como casi todas las respuestas, hay que matizarla.

Históricamente, uno de los ámbitos de aplicación de la inteligencia artificial (IA) ha sido la medicina. En la actualidad la técnica de IA que está dando los resultados más espectaculares en el ámbito del diagnóstico basado en la imagen es el llamado aprendizaje profundo, que consiste en aprender a reconocer patrones de manera muy eficiente. Con esta técnica, recientemente científicos de la Universidad de Carnegie Mellón (EE UU), en colaboración con cuatro hospitales de Chicago, han desarrollado un sistema capaz de predecir infartos con cuatro horas de antelación en enfermos ingresados en UCIs, lo que mejora en más de tres horas los tiempos de predicción de los cardiólogos. Otro ejemplo exitoso de aplicación del aprendizaje profundo es el análisis combinado de imágenes médicas de rayos rayos X, MRI y ultrasonidos desarrollado por un grupo de la Universidad de Queensland (Australia), el cual puede diagnosticar el cáncer de mama mejor que los médicos.

diagnostico por ordenadorEste tipo de sistemas se entrenan a partir de enormes cantidades de datos. Así, el software capaz de predecir infartos fue entrenado con datos de 133.000 pacientes, que incluían 72 parámetros presentes en la historia clínica de estas personas (signos vitales, edad, glucemia, recuentos de plaquetas, etc.).

Cuando no se dispone de suficientes datos o el problema médico que se quiere resolver no se basa en el reconocimiento de patrones, sino más bien en razonamiento lógico basado en el procesamiento de conocimientos médicos, entonces es posible recurrir a otra técnica de IA menos novedosa pero también muy útil. Se trata de los denominados sistemas expertos, que utilizan el conocimiento acumulado sobre los síntomas de una enfermedad, el historial médico y los resultados de análisis médicos para llegar a conclusiones sobre el estado de un paciente, es decir, para diagnosticar. Cuanto mayor sea su capacidad para combinar sus conocimientos con las observaciones reales, más exacto será su diagnóstico.

El primer sistema experto médico fue HEURISTIC DENDRAL, desarrollado a partir de los años 70 en la Universidad de Stanford, en el ámbito de la química orgánica. Poco después, en la misma universidad se desarrolló MYCIN, orientado a las enfermedades infecciosas. Una parte del sistema describía posibles síntomas y otra expresaba una posible causa de los mismos. Además de incorporar conocimientos que permitían diagnosticar el agente causante de la infección, MYCIN también contenía información acerca del tratamiento adecuado, por lo que resultaba útil para la toma de decisiones por parte de los médicos.

Hoy ya hay multitud de sistemas en este campo que se usan regularmente en hospitales y centros médicos de todo el mundo. Por ejemplo, ATHENA, que ayuda a los médicos a tratar a pacientes con problemas de hipertensión. Este sistema procesa los datos clínicos de cada paciente y, a partir de su base de conocimientos sobre hipertensión, genera recomendaciones para mejorar la atención clínica personalizada.

Una de las aplicaciones más potentes a nivel mundial es el sistema GIDEON, que ayuda a diagnosticar 337 enfermedades infecciosas específicas en 224 países. Su base de datos cubre 1.147 taxones microbianos y 306 agentes antibacterianos y vacunas. La información que maneja es actualizada semanalmente e incluye más de 20.000 imágenes, gráficos, mapas infografías, etc. Todo ello le permite llegar a un 94% de diagnósticos correctos, y de ahí que sea uno de los sistemas más usados en el ámbito de la medicina. GIDEON es útil tanto para el diagnóstico y tratamiento de las enfermedades infecciosas, como para mejorar su conocimiento, identificar microorganismos patógenos y detectar brotes epidémicos. Básicamente lo que hace GIDEON es mejorar la exactitud del diagnóstico y ampliar la base de conocimientos de la persona experta. Ahora bien, como todo sistema, presenta algunas limitaciones. Por ejemplo, no es capaz de diagnosticar simultáneamente enfermedades concurrentes. Además, los signos y síntomas que se introducen para realizar una consulta se relacionan únicamente con las enfermedades transmisibles registradas en el sistema, por lo que quedan excluidas muchas otras.

En cualquier caso, es importante recalcar que los sistemas basados en IA, a pesar de ser capaces de proporcionar diagnósticos rápidos y certeros, nunca superarán el sentido común y el buen juicio de una persona, ni tampoco el efecto placebo resultante del trato humano y la empatía que caracteriza a un buen profesional de la medicina en la relación con sus pacientes. Otro punto fuerte de los expertos humanos respecto a la inteligencia artificial es la capacidad de aplicar el conocimiento existente cuando, por ejemplo, los datos son incompletos o la información sobre el estado de un paciente no se corresponde bien con los casos usuales.

Sin embargo, para un médico la capacidad de recordar datos organizados puede ser un factor limitante, igual que la de correlacionar los casos observados con el patrón de datos existente. Por ello el uso de sistemas de IA es una excelente ayuda. De hecho, los sistemas de IA en medicina no deberían diseñarse con el objetivo de sustituir al médico u otro personal sanitario, sino como sistemas de ayuda y complemento de su labor.

 

* Ramón López de Mántaras y Pedro Meseguer son investigadores del CSIC en el Instituto de Investigación en Inteligencia Artificial del CSIC y autores del libro de divulgación Inteligencia Artificial (CSIC-Catarata).