Entradas etiquetadas como ‘IA’

Radio cognitiva, la tecnología que hará más eficientes nuestros móviles

José M. de la Rosa (CSIC)*

Nos encontramos en los albores de la mayor revolución tecnológica que ha conocido la humanidad. Las primeras décadas del siglo XXI serán recordadas por la expansión de las tecnologías de la información y las comunicaciones (TIC) y de dispositivos como los teléfonos móviles, las tablets y los ordenadores personales. Gracias a ellos podemos acceder a la información a través de internet de una forma ubicua y con velocidades de conexión cada vez mayores.

Este desarrollo sin precedentes se debe en gran medida a la microelectrónica y los chips. Estos microingenios han evolucionado en los últimos 50 años de manera exponencial según la ley de Moore, y contienen miles de componentes en unos pocos nanómetros. Una de las consecuencias de este escalado es la integración de la microelectrónica en objetos de uso cotidiano, que ha dado lugar al denominado Internet de las cosas, IoT por sus siglas en inglés.

La computación neuronal artificial ya se ha comenzado a utilizar en algunos dispositivos comerciales

IoT comprende la interconexión de miles de millones de entidades ciberfísicas con una estructura híbrida software/hardware capaces de comunicarse entre ellas sin necesidad de intervención humana. La educación a través de plataformas de enseñanza virtual, la teleasistencia sanitaria personalizada, las operaciones bursátiles automatizadas, las redes energéticas inteligentes, la robotización en procesos industriales y redes de transporte, o los vehículos autónomos, son solo algunos ejemplos del sinfín de aplicaciones de IoT, cada vez más presente en nuestras vidas.

Para una implementación adecuada del Internet de las cosas se requiere el desarrollo de dispositivos electrónicos seguros y eficientes, tanto en coste como en consumo de energía. Tales dispositivos deben estar dotados de una cierta inteligencia y autonomía para poder tomar decisiones en tiempo real y ser robustos frente a las condiciones del medio en que se van a desenvolver. Y para que esto ocurra es necesario desarrollar tecnologías que hagan viable la construcción de un puente sólido entre el medio físico (real) y su versión virtualizada (digital).

Del 1G al 5G

Microfotografía de un chip del Instituto de Microelectrónica de Sevilla/ IMSE (CSIC-US)

Una de esas tecnologías para ‘construir puentes’ son las comunicaciones móviles. Hace poco más de un par de décadas, los terminales móviles eran simplemente teléfonos inalámbricos, cuya única funcionalidad era la transmisión de voz (primera generación o 1G), a la que se añadió posteriormente la transmisión de SMS en la segunda generación (2G), con velocidades de transmisión de unos pocos de kilobits por segundo. Con el desarrollo del 3G, los móviles pasaron a ofrecer servicios multimedia y conexión a internet de banda ancha con velocidades de acceso de varios Megabits/s (Mb/s). En la actualidad, la mayoría de las redes operan con terminales móviles de cuarta generación (4G), que permiten alcanzar velocidades de hasta centenares de Mb/s, y ya se empieza a implantar la red 5G, con velocidades de Gigabits/s (Gb/s).

Sin embargo, las comunicaciones móviles tienen un problema: las bandas del espectro electromagnético por donde se propagan las ondas radioeléctricas con la información transmitida por muchos aparatos electrónicos se pueden saturar y convertirse en un cuello de botella para la implementación práctica de IoT. Esto ha motivado la investigación y desarrollo de tecnologías para hacer un uso más eficiente y sostenible del espectro electromagnético. Una de ellas es la denominada radio cognitiva o CR por sus siglas en inglés.

En esencia, la radio cognitiva se basa en la convergencia de tecnologías de comunicación y de computación que permiten ajustar de forma autónoma y transparente para el usuario los parámetros de transmisión y recepción de los dispositivos electrónicos en función de la información que detectan del entorno radioeléctrico donde se utilizan. Para ello, dichos dispositivos han de incluir sistemas de comunicaciones en los que la digitalización (transformación digital de las señales que portan la información) se realice lo más cerca posible de la antena (tanto en el receptor como en el transmisor). Así, el procesamiento de la información se hace mediante software y puede ejecutarse en un microprocesador digital. Esto aumenta significativamente el grado de programabilidad y adaptabilidad de los terminales móviles a diferentes modos o estándares de comunicación.

Inteligencia artificial en nuestros móviles

Además de un sistema de comunicación basado en software, la radio cognitiva requiere del uso de algoritmos de inteligencia artificial (IA) para identificar de forma automática la banda óptima del espectro electromagnético en la que se pueda transmitir mejor la información. Con la inteligencia artificial se maximiza la cobertura, se minimiza el efecto de las interferencias y se incrementa la durabilidad y la vida útil de la batería, entre otras muchas ventajas.

Sin embargo, los microprocesadores empleados en dispositivos convencionales resultan ineficientes para realizar las tareas de inteligencia artificial requeridas en sistemas de radio cognitiva. Al llevarlas a cabo, estos dispositivos consumen mucha energía y reducen la durabilidad de la batería. Esto ha motivado la investigación de alternativas como los procesadores neuromórficos, los cuales realizan el tratamiento de la información inspirándose en el cerebro humano.

Esquema de funcionamiento de un procesador neuromórfico/ José M. de la Rosa

Hay tareas computacionales, como el cálculo, en las que los procesadores convencionales son más eficientes que el cerebro, pero otras, como el reconocimiento de patrones, son ejecutadas mejor por los sistemas neuronales. Es lo que ocurre, por ejemplo, en el reconocimiento facial, que el ojo y el cerebro humanos realizan de forma mucho más eficaz en términos de velocidad, precisión y consumo energético. En el caso de la radio cognitiva, los procesadores neuromórficos deben encargarse de reconocer patrones de señales radioeléctricas, que son las que transmiten la información en la telefonía móvil.

De hecho, la computación neuronal artificial ya se ha comenzado a utilizar en algunos dispositivos comerciales. Por ejemplo, la compañía Apple incorpora módulos neuronales de aprendizaje automático (o Machine learning) en sus procesadores más recientes incluidos en los últimos modelos de iPhone. Estos dispositivos contienen 8.500 millones de transistores integrados en una tecnología de 7 nanómetros. Otras compañías como Intel y Qualcom han desarrollado procesadores neuromórficos fabricados también en tecnologías nanométricas.

Aunque aún se está lejos de desarrollar ordenadores completamente basados en procesamiento neuronal, hay un interés creciente por integrar la inteligencia artificial en el hardware de los dispositivos. Esta es una de las líneas de investigación en las que se trabaja en el Instituto de Microelectrónica de Sevilla (CSIC-US). En un futuro, se espera poder incorporar procesamiento neuromórfico en chips de comunicaciones que hagan posible la realización de dispositivos IoT/5G más eficientes gracias al uso de la radio cognitiva.

*José M. de la Rosa es investigador del Instituto de Microelectrónica de Sevilla, centro mixto del CSIC y la Universidad de Sevilla.

¿Puede un robot diagnosticar una enfermedad mejor que un médico?

Por Ramón López de Mántaras y Pedro Meseguer (CSIC)*

La respuesta es ‘sí’. Pero, como casi todas las respuestas, hay que matizarla.

Históricamente, uno de los ámbitos de aplicación de la inteligencia artificial (IA) ha sido la medicina. En la actualidad la técnica de IA que está dando los resultados más espectaculares en el ámbito del diagnóstico basado en la imagen es el llamado aprendizaje profundo, que consiste en aprender a reconocer patrones de manera muy eficiente. Con esta técnica, recientemente científicos de la Universidad de Carnegie Mellón (EE UU), en colaboración con cuatro hospitales de Chicago, han desarrollado un sistema capaz de predecir infartos con cuatro horas de antelación en enfermos ingresados en UCIs, lo que mejora en más de tres horas los tiempos de predicción de los cardiólogos. Otro ejemplo exitoso de aplicación del aprendizaje profundo es el análisis combinado de imágenes médicas de rayos rayos X, MRI y ultrasonidos desarrollado por un grupo de la Universidad de Queensland (Australia), el cual puede diagnosticar el cáncer de mama mejor que los médicos.

diagnostico por ordenadorEste tipo de sistemas se entrenan a partir de enormes cantidades de datos. Así, el software capaz de predecir infartos fue entrenado con datos de 133.000 pacientes, que incluían 72 parámetros presentes en la historia clínica de estas personas (signos vitales, edad, glucemia, recuentos de plaquetas, etc.).

Cuando no se dispone de suficientes datos o el problema médico que se quiere resolver no se basa en el reconocimiento de patrones, sino más bien en razonamiento lógico basado en el procesamiento de conocimientos médicos, entonces es posible recurrir a otra técnica de IA menos novedosa pero también muy útil. Se trata de los denominados sistemas expertos, que utilizan el conocimiento acumulado sobre los síntomas de una enfermedad, el historial médico y los resultados de análisis médicos para llegar a conclusiones sobre el estado de un paciente, es decir, para diagnosticar. Cuanto mayor sea su capacidad para combinar sus conocimientos con las observaciones reales, más exacto será su diagnóstico.

El primer sistema experto médico fue HEURISTIC DENDRAL, desarrollado a partir de los años 70 en la Universidad de Stanford, en el ámbito de la química orgánica. Poco después, en la misma universidad se desarrolló MYCIN, orientado a las enfermedades infecciosas. Una parte del sistema describía posibles síntomas y otra expresaba una posible causa de los mismos. Además de incorporar conocimientos que permitían diagnosticar el agente causante de la infección, MYCIN también contenía información acerca del tratamiento adecuado, por lo que resultaba útil para la toma de decisiones por parte de los médicos.

Hoy ya hay multitud de sistemas en este campo que se usan regularmente en hospitales y centros médicos de todo el mundo. Por ejemplo, ATHENA, que ayuda a los médicos a tratar a pacientes con problemas de hipertensión. Este sistema procesa los datos clínicos de cada paciente y, a partir de su base de conocimientos sobre hipertensión, genera recomendaciones para mejorar la atención clínica personalizada.

Una de las aplicaciones más potentes a nivel mundial es el sistema GIDEON, que ayuda a diagnosticar 337 enfermedades infecciosas específicas en 224 países. Su base de datos cubre 1.147 taxones microbianos y 306 agentes antibacterianos y vacunas. La información que maneja es actualizada semanalmente e incluye más de 20.000 imágenes, gráficos, mapas infografías, etc. Todo ello le permite llegar a un 94% de diagnósticos correctos, y de ahí que sea uno de los sistemas más usados en el ámbito de la medicina. GIDEON es útil tanto para el diagnóstico y tratamiento de las enfermedades infecciosas, como para mejorar su conocimiento, identificar microorganismos patógenos y detectar brotes epidémicos. Básicamente lo que hace GIDEON es mejorar la exactitud del diagnóstico y ampliar la base de conocimientos de la persona experta. Ahora bien, como todo sistema, presenta algunas limitaciones. Por ejemplo, no es capaz de diagnosticar simultáneamente enfermedades concurrentes. Además, los signos y síntomas que se introducen para realizar una consulta se relacionan únicamente con las enfermedades transmisibles registradas en el sistema, por lo que quedan excluidas muchas otras.

En cualquier caso, es importante recalcar que los sistemas basados en IA, a pesar de ser capaces de proporcionar diagnósticos rápidos y certeros, nunca superarán el sentido común y el buen juicio de una persona, ni tampoco el efecto placebo resultante del trato humano y la empatía que caracteriza a un buen profesional de la medicina en la relación con sus pacientes. Otro punto fuerte de los expertos humanos respecto a la inteligencia artificial es la capacidad de aplicar el conocimiento existente cuando, por ejemplo, los datos son incompletos o la información sobre el estado de un paciente no se corresponde bien con los casos usuales.

Sin embargo, para un médico la capacidad de recordar datos organizados puede ser un factor limitante, igual que la de correlacionar los casos observados con el patrón de datos existente. Por ello el uso de sistemas de IA es una excelente ayuda. De hecho, los sistemas de IA en medicina no deberían diseñarse con el objetivo de sustituir al médico u otro personal sanitario, sino como sistemas de ayuda y complemento de su labor.

 

* Ramón López de Mántaras y Pedro Meseguer son investigadores del CSIC en el Instituto de Investigación en Inteligencia Artificial del CSIC y autores del libro de divulgación Inteligencia Artificial (CSIC-Catarata).