Entradas etiquetadas como ‘Internet de las cosas’

Ojo al ‘data’: un paseo filosófico por las nubes digitales

Por Txetxu Ausín (CSIC)*

Las nubes son la exitosa metáfora para referirnos a la nueva realidad digital en la que vivimos. Una realidad configurada por las redes sociales, la inteligencia artificial y la analítica de los datos masivos o big data que se recogen en la interacción e interconexión creciente de humanos, artefactos e instrumentos que registran, procesan y reutilizan enormes cantidades de información. Las nubes parecen blancas, etéreas, inofensivas, pero están reconfigurando radicalmente nuestro mundo y nuestras relaciones; por ello son tecnologías disruptivas, que impulsan transformaciones radicales y a gran velocidad en esta nueva era de los humanos llamada Antropoceno. Cada vez más nos configuramos como sistemas sociotécnicos donde todas nuestras interrelaciones están mediadas tecnológicamente; mantenemos una interacción física, cognitiva y hasta emocional con la tecnología, difuminándose las fronteras entre sujetos humanos y artefactos.

Les invito a dar un paseo por las nubes, a pensar este nuevo ecosistema digital de la mano de la filosofía, para indagar y preguntarnos por su esencia, por la concepción del ser humano que entrañan, por el tipo de conocimiento que generan, por su impacto medioambiental, por su ética y su política.

Ilustración de Irene Cuesta (CSIC).

Empecemos por la realidad de los datos

Los datos están en todas partes (“data is all around”), son ubicuos, de modo que se está produciendo una ‘datificación’ de la vida, una representación digital de la realidad, una ontología de datos donde se pretende poner en un formato cuantificado todo, para que pueda ser medido, registrado y analizado. Es decir, todo se transforma en información cuantificable. Así que el tamaño importa, ya que, cambiando el volumen y la cantidad de datos manejados, se está cambiando en cierto modo la esencia de la realidad.

Esta antigua búsqueda de la humanidad se desarrolla hoy exponencialmente por medio de la digitalización y los sistemas de Tecnologías de la Información y la Comunicación (TIC). Se cuantifica el espacio (geolocalización), se cuantifican las interacciones humanas y todos los elementos intangibles de nuestra vida cotidiana (pensamientos, estados de ánimo, comportamiento) a través de las redes sociales, se ha convertido el cuerpo humano en una plataforma tecnológica y se monitorizan los actos más esenciales de la vida (sueño, actividad física, presión sanguínea, respiración…) mediante dispositivos médicos, prendas de vestir, píldoras digitales, relojes inteligentes, prótesis y tecnologías biométricas, en espacios públicos y privados (lo que se conoce como ‘internet de los cuerpos‘). Se datifica todo lo que nos rodea mediante la incrustación de chips, sensores y módulos de comunicación en todos los objetos cotidianos (‘internet de las cosas‘).

Si pensamos en términos ontológicos, no son ya los átomos sino la información la base de todo lo que es (‘internet del todo‘). Un universo compuesto esencialmente de información (infosfera). Una nueva perspectiva de la realidad, del mundo, como datos que pueden ser explorados y explotados. Además, la llamada ideología deldataísmo‘ es una nueva narrativa universal que regula nuestra vida y que viene legitimada por la autoridad de los datos masivos: el universo consiste en flujos de datos y el valor de cualquier fenómeno social o entidad está determinado por su contribución al procesamiento de datos. Y esto no es una teoría científicamente neutral porque pretende determinar lo que está bien y está mal con relación a un valor supremo, el flujo de información: será bueno aquello que contribuya a difundir y profundizar el flujo de información en el universo y malo, lo contrario; la herejía es desconectarse del flujo de datos.

     Ilustración de Irene Cuesta (CSIC).

El ser humano de la realidad de los datos

Dicho lo anterior, este paseo nos lleva a la antropología, a la concepción de ser humano y de su identidad que encierran las nubes. Se datifican todos los aspectos de nuestra vida (yo-cuantificado) y, no solo eso, se otorga un valor comercial a esa datificación, de modo que nuestras actividades nos definen como un objeto mercantil (somos el producto). Eso conduce a una constante optimización de uno mismo, donde el tiempo libre se vive igual que el tiempo de trabajo y está atravesado por las mismas técnicas de evaluación, calificación y aumento de la efectividad. Se da una progresiva desaparición de lo privado y una servidumbre voluntaria con relación a las nubes y la ‘mano invisible’ del flujo de datos. El concepto de rendimiento se refiere ya a la vida en su totalidad (24/7) en lo que se ha llamado ‘economía de la atención‘ y ‘capitalismo de vigilancia‘.

Filosofía del conocimiento

No es más halagüeña la perspectiva desde la filosofía del conocimiento o epistemología. Es cierto que la digitalización ofrece oportunidades de alfabetización científica, de creación de reservas epistémicas, de nuevos espacios formativos y de mayor transparencia y rendición de cuentas de las administraciones, favoreciendo la participación y el compromiso ciudadano con las políticas públicas. Además, las nubes de sanidad digital, educación online o mercados transforman las sociedades de países empobrecidos y contribuyen a la realización de los Objetivos de Desarrollo Sostenible. Sin embargo, la analítica de big data está transformando el método científico privilegiando las correlaciones frente a la causalidad como modelo explicativo de la realidad —recuérdese que una correlación es un vínculo o relación recíproca entre varias cosas—. No obstante, el hecho de que dos eventos se den habitualmente a la vez o de manera consecutiva no implica que uno sea la causa de otro. El big data establece correlaciones muy fuertes entre diferentes eventos o informaciones, pero eso no significa automáticamente que unos constituyan la causa o el origen de los otros, que serían su efecto.

Y aunque el big data se ha planteado como la panacea para la toma de decisiones más acertada, imparcial y eficiente, que evitaría los errores humanos y garantizaría un conocimiento más fiable, ha obviado algo básico, los sesgos. Esto es, los prejuicios y variables ocultas a la hora de procesar la información, las tendencias y predisposiciones a percibir de un modo distorsionado la realidad —sesgos que no desaparecen nunca aumentando el tamaño de la muestra y que están implícitos en los datos o en el algoritmo que los maneja—. Además, disponer de más datos no implica automáticamente un mayor y mejor conocimiento. Tener ingentes cantidades de datos puede conducir a la confusión y al ruido, los datos no son siempre información significativa, y los algoritmos son tremendamente conservadores porque reflejan lo que hay, lo dado, el prejuicio subyacente en la sociedad, escamoteando la discusión acerca de qué valores son preferibles, sin ninguna ambición transformadora. Los algoritmos, que no son sino un conjunto de pasos ordenados empleados para resolver un problema o alcanzar un fin (una codificación de medios y fines), se presentan bajo una apariencia de neutralidad, pero no dejan de ser opiniones encapsuladas.

Ilustración de Irene Cuesta (CSIC).

Ética y ecoética

Ligado a lo anterior, si hablamos de responsabilidad y ética, las nubes digitales presentan riesgos morales importantes en términos de daños a los individuos y a la sociedad:

  • Discriminación por sobrerrepresentación de personas con ciertas características y exclusión de otras; un asunto vinculado a los sesgos, como la discriminación de género o racial. Por ejemplo, las mujeres tienen menos posibilidades de recibir anuncios de trabajo en Google y el primer certamen de belleza juzgado por un ordenador colocó a una única persona de piel oscura entre los 44 vencedores, como señala Cathy O’Neil en Armas de destrucción matemática.
  • Dictadura de datos (políticas predictivas), donde ya no somos juzgados sobre la base de nuestras acciones reales, sino sobre la base de lo que los datos indiquen que serán nuestras acciones y situaciones probables (enfermedades, conductas…).
  • Perfilamiento (configuración de un ‘perfil de riesgo’) y estigmatización, cuando se define y manipula nuestra identidad, invadiéndose la privacidad y espacios íntimos incluso a nivel cognitivo-conductual y emocional.

Pero estas nubes digitales, desde una perspectiva medioambiental y ecoética, tampoco responden a la ‘desmaterialización’ de la economía que prometen. Por un lado, la fabricación de redes y productos electrónicos supera con creces la de otros bienes de consumo en términos de materias primas. Por ejemplo, el gasto en combustibles fósiles utilizados en la fabricación de un ordenador de sobremesa supera 100 veces su propio peso mientras que para un coche o una nevera la relación entre ambos pesos (de los combustibles fósiles usados en su fabricación y del producto en sí) es prácticamente de uno a uno. Por otro lado, los grandes centros de computación y de almacenamiento de datos en la nube requieren enormes cantidades de energía y tienen una alta huella por emisiones de CO2, con un impacto medioambiental muy elevado. El consumo eléctrico es tan grande que las emisiones de carbono asociadas son ingentes, como denuncia el movimiento Green Artificial Intelligence.

   Ilustración de Irene Cuesta (CSIC).

Propiedad y poder

Y es que, para terminar con una reflexión propia de la filosofía política, la que se refiere a la propiedad y al poder, hay que recordar que las nubes digitales son los ordenadores de otros, de esos gigantes tecnológicos, “señores feudales del aire”, como los llama Javier Echeverría, que dominan esta nueva realidad de la internet del todo. Además, las tecnologías digitales, las nubes, modulan la política a través de la manipulación de los mensajes, las fake news, la cultura del espectador o la polarización; los artefactos tienen política, incorporan valores, y la tecnología crea formas de poder y autoridad. Cuando hacemos entrega de (todos) nuestros datos, a cambio de unos servicios relativamente triviales, acaban en el balance de estas grandes compañías. Y, además, esos datos son después utilizados para configurar nuestro mundo de una manera que no es ni transparente (no se conocen los algoritmos de estas grandes compañías) ni deseable, convirtiéndose en un instrumento de dominación.

Un desarrollo justo y socialmente responsable de las nubes digitales exige un empoderamiento tecnológico de la ciudadanía, una alfabetización sobre este nuevo mundo digital, así como un nuevo pacto tecno-social entre usuarios, empresas y estados, sobre la base de principios éticos, que evite las injusticias algorítmicas mencionadas (discriminación-perfilamiento-sesgos-exclusión) y que promueva la apropiación social de la tecnología para el bien común. No nos durmamos en las nubes.

* Txetxu Ausín es investigador del Instituto de Filosofía del CSIC (IFS-CSIC), donde dirige el Grupo de Ética Aplicada.

Radio cognitiva, la tecnología que hará más eficientes nuestros móviles

José M. de la Rosa (CSIC)*

Nos encontramos en los albores de la mayor revolución tecnológica que ha conocido la humanidad. Las primeras décadas del siglo XXI serán recordadas por la expansión de las tecnologías de la información y las comunicaciones (TIC) y de dispositivos como los teléfonos móviles, las tablets y los ordenadores personales. Gracias a ellos podemos acceder a la información a través de internet de una forma ubicua y con velocidades de conexión cada vez mayores.

Este desarrollo sin precedentes se debe en gran medida a la microelectrónica y los chips. Estos microingenios han evolucionado en los últimos 50 años de manera exponencial según la ley de Moore, y contienen miles de componentes en unos pocos nanómetros. Una de las consecuencias de este escalado es la integración de la microelectrónica en objetos de uso cotidiano, que ha dado lugar al denominado Internet de las cosas, IoT por sus siglas en inglés.

La computación neuronal artificial ya se ha comenzado a utilizar en algunos dispositivos comerciales

IoT comprende la interconexión de miles de millones de entidades ciberfísicas con una estructura híbrida software/hardware capaces de comunicarse entre ellas sin necesidad de intervención humana. La educación a través de plataformas de enseñanza virtual, la teleasistencia sanitaria personalizada, las operaciones bursátiles automatizadas, las redes energéticas inteligentes, la robotización en procesos industriales y redes de transporte, o los vehículos autónomos, son solo algunos ejemplos del sinfín de aplicaciones de IoT, cada vez más presente en nuestras vidas.

Para una implementación adecuada del Internet de las cosas se requiere el desarrollo de dispositivos electrónicos seguros y eficientes, tanto en coste como en consumo de energía. Tales dispositivos deben estar dotados de una cierta inteligencia y autonomía para poder tomar decisiones en tiempo real y ser robustos frente a las condiciones del medio en que se van a desenvolver. Y para que esto ocurra es necesario desarrollar tecnologías que hagan viable la construcción de un puente sólido entre el medio físico (real) y su versión virtualizada (digital).

Del 1G al 5G

Microfotografía de un chip del Instituto de Microelectrónica de Sevilla/ IMSE (CSIC-US)

Una de esas tecnologías para ‘construir puentes’ son las comunicaciones móviles. Hace poco más de un par de décadas, los terminales móviles eran simplemente teléfonos inalámbricos, cuya única funcionalidad era la transmisión de voz (primera generación o 1G), a la que se añadió posteriormente la transmisión de SMS en la segunda generación (2G), con velocidades de transmisión de unos pocos de kilobits por segundo. Con el desarrollo del 3G, los móviles pasaron a ofrecer servicios multimedia y conexión a internet de banda ancha con velocidades de acceso de varios Megabits/s (Mb/s). En la actualidad, la mayoría de las redes operan con terminales móviles de cuarta generación (4G), que permiten alcanzar velocidades de hasta centenares de Mb/s, y ya se empieza a implantar la red 5G, con velocidades de Gigabits/s (Gb/s).

Sin embargo, las comunicaciones móviles tienen un problema: las bandas del espectro electromagnético por donde se propagan las ondas radioeléctricas con la información transmitida por muchos aparatos electrónicos se pueden saturar y convertirse en un cuello de botella para la implementación práctica de IoT. Esto ha motivado la investigación y desarrollo de tecnologías para hacer un uso más eficiente y sostenible del espectro electromagnético. Una de ellas es la denominada radio cognitiva o CR por sus siglas en inglés.

En esencia, la radio cognitiva se basa en la convergencia de tecnologías de comunicación y de computación que permiten ajustar de forma autónoma y transparente para el usuario los parámetros de transmisión y recepción de los dispositivos electrónicos en función de la información que detectan del entorno radioeléctrico donde se utilizan. Para ello, dichos dispositivos han de incluir sistemas de comunicaciones en los que la digitalización (transformación digital de las señales que portan la información) se realice lo más cerca posible de la antena (tanto en el receptor como en el transmisor). Así, el procesamiento de la información se hace mediante software y puede ejecutarse en un microprocesador digital. Esto aumenta significativamente el grado de programabilidad y adaptabilidad de los terminales móviles a diferentes modos o estándares de comunicación.

Inteligencia artificial en nuestros móviles

Además de un sistema de comunicación basado en software, la radio cognitiva requiere del uso de algoritmos de inteligencia artificial (IA) para identificar de forma automática la banda óptima del espectro electromagnético en la que se pueda transmitir mejor la información. Con la inteligencia artificial se maximiza la cobertura, se minimiza el efecto de las interferencias y se incrementa la durabilidad y la vida útil de la batería, entre otras muchas ventajas.

Sin embargo, los microprocesadores empleados en dispositivos convencionales resultan ineficientes para realizar las tareas de inteligencia artificial requeridas en sistemas de radio cognitiva. Al llevarlas a cabo, estos dispositivos consumen mucha energía y reducen la durabilidad de la batería. Esto ha motivado la investigación de alternativas como los procesadores neuromórficos, los cuales realizan el tratamiento de la información inspirándose en el cerebro humano.

Esquema de funcionamiento de un procesador neuromórfico/ José M. de la Rosa

Hay tareas computacionales, como el cálculo, en las que los procesadores convencionales son más eficientes que el cerebro, pero otras, como el reconocimiento de patrones, son ejecutadas mejor por los sistemas neuronales. Es lo que ocurre, por ejemplo, en el reconocimiento facial, que el ojo y el cerebro humanos realizan de forma mucho más eficaz en términos de velocidad, precisión y consumo energético. En el caso de la radio cognitiva, los procesadores neuromórficos deben encargarse de reconocer patrones de señales radioeléctricas, que son las que transmiten la información en la telefonía móvil.

De hecho, la computación neuronal artificial ya se ha comenzado a utilizar en algunos dispositivos comerciales. Por ejemplo, la compañía Apple incorpora módulos neuronales de aprendizaje automático (o Machine learning) en sus procesadores más recientes incluidos en los últimos modelos de iPhone. Estos dispositivos contienen 8.500 millones de transistores integrados en una tecnología de 7 nanómetros. Otras compañías como Intel y Qualcom han desarrollado procesadores neuromórficos fabricados también en tecnologías nanométricas.

Aunque aún se está lejos de desarrollar ordenadores completamente basados en procesamiento neuronal, hay un interés creciente por integrar la inteligencia artificial en el hardware de los dispositivos. Esta es una de las líneas de investigación en las que se trabaja en el Instituto de Microelectrónica de Sevilla (CSIC-US). En un futuro, se espera poder incorporar procesamiento neuromórfico en chips de comunicaciones que hagan posible la realización de dispositivos IoT/5G más eficientes gracias al uso de la radio cognitiva.

*José M. de la Rosa es investigador del Instituto de Microelectrónica de Sevilla, centro mixto del CSIC y la Universidad de Sevilla.

¿Cómo funcionan el bitcoin y otras monedas virtuales? La clave es la tecnología blockchain

Por Mar Gulis (CSIC)

Basada en la tecnología blockchain, la moneda virtual bitcoin no cuenta con el respaldo de ningún gobierno  o banco central.

En 2008 alguien que firmaba bajo el seudónimo de Sataoshi Nakamoto creó el bitcoin. La famosa moneda virtual ha sido la punta de lanza de un fenómeno más amplio: la criptoeconomía. Este concepto se refiere a toda la actividad financiera basada en el uso de criptomonedas y tecnología blockchain (cadena de bloques), un sistema descentralizado de recolección de datos en el que la información se agrupa en bloques, es de acceso público y, mediante técnicas criptográficas, solo puede ser editada o alterada modificando toda la cadena de bloques previa.

Los investigadores del CSIC David Arroyo y Luis Hernández, y su colega Jesús Díaz, de IBM,  explican que el éxito de cualquier criptomoneda no reside solo en esta base criptográfica, sino que es necesario que exista un conjunto de usuarios que pongan sus ordenadores al servicio del ecosistema, actuando como nodos activos en la generación de criptomonedas. Así es como funciona la red Bitcoin. Expertos en telecomunicaiones, matemáticas e informática, los tres autores acaban de publicar Blockchain (Editorial CSIC-Los libros de la Catarata), donde explican el significado y alcance de este vocablo. A lo largo del libro cuentan cómo funciona y para qué sirve una tecnología que puede ser clave para transitar a una nueva economía digital y a la denominada web 4.0.

Portada del libro Blockchain, editado por el CSIC y Los Libros de la Catarata.

Como decíamos, blockchain es un sistema descentralizado de recolección de datos que elimina a los intermediarios, los bancos en el caso de Bitcoin, desconcentrando todas las tareas de gestión. Son los usuarios quienes controlan el proceso, como si se tratase de un enorme banco con millones de nodos, de modo que cada uno se convierte en partícipe y gestor de los libros de cuentas de esta peculiar entidad. En ese contexto de aplicación, blockchain sería una especie de libro de contabilidad gigante en el que los registros (bloques) están enlazados y validados criptográficamente para proteger la seguridad de las transacciones. En otras palabras, es una base de datos distribuida (no se almacena en una sola ubicación) y segura que se puede aplicar a todo tipo de transacción, no solo económica.

Precisamente por esta particular estructura, blockchain se está empleando para crear sistemas financieros alternativos, al margen del tradicional control de los bancos centrales. Ejemplos de ello son las plataformas Bitcoin y Etherum, a través de las cuales cualquiera puede registrar transacciones con sus respectivas monedas virtuales, el bitcoin y el ether. Como apuntan los investigadores en su libro, la utilización de este dinero virtual y la tecnología en la que se sustenta –blockchain– ha pasado de cierto rechazo institucional, e incluso mala fama, a representar una oportunidad para nuevos modelos de negocio y actividad financiera, en medio de una ola de entusiasmo hacia la denominada criptoeconomía. El potencial de blockchain es diverso, y pasa por la construcción de sistemas de protección de derechos de autor; la configuración de organizaciones autónomas basadas en ‘contratos inteligentes’ o la gestión del Internet de las cosas, entre otras aplicaciones.

Pero sus múltiples oportunidades conviven con varios puntos débiles: por ejemplo, la no trazabilidad de las criptomonedas, frente al pago tradicional con tarjeta de crédito o mediante transferencia bancaria, dificulta la persecución del lavado de dinero; sus limitaciones en la gestión de la identidad y privacidad de los usuarios; las fluctuaciones en la cotización de las monedas virtuales; la gran cantidad de energía que requieren los modelos de generación de moneda en Bitcoin y Ethereum; el déficit en escalabilidad de la red blockchain de acceso abierto; o ciertos incidentes de seguridad. “En los últimos años podemos hallar errores en la implementación de protocolos criptográficos, robos de credenciales en plataformas digitales, incluso fallas graves de seguridad en dispositivos hardware resistentes a la manipulación”, señalan los autores. Como explica David Arroyo, del Instituto de Tecnologías Físicas y de la Información Leonardo Torres Quevedo (ITEFI-CSIC), “el trabajo teórico que sustenta esta tecnología está aún en fase de desarrollo, y los organismos de estandarización quieren establecer un marco de referencia básico que ofrezca garantías a su utilización”.

Con todo, la obra incide en que blockchain va más allá de posibilitar meros intercambios económico-financieros. Es una herramienta para desarrollar nuevos protocolos que permitan la gestión de todo tipo de datos en esta sociedad de la información.