Entradas etiquetadas como ‘redes sociales’

¿Te inspiran la ciencia y la poesía? Participa en el concurso #MicropoemasCSIC2

Por Mar Gulis

¿Sabías que las “mariposas del alma” es el poético nombre que Santiago Ramón y Cajal dio a un tipo específico de neuronas? Quizá resulte curioso que un científico de su relevancia, premio Nobel de Medicina en 1906, haya utilizado una metáfora así para hablar de un descubrimiento relacionado con la neurociencia. Pero no es algo que debiera sorprendernos, pues la ciencia y la poesía tienen más en común de lo que parece: ambas exploran lo desconocido en busca de nuevos conocimientos y, para ello, recurren a la imaginación y al cuestionamiento de lo establecido.

Si combinar ciencia y poesía te resulta inspirador, ahora puedes participar en #MicropoemasCSIC2, un concurso en redes sociales impulsado por @CSICdivulga, el perfil ‘social’ de la Vicepresidencia Adjunta de Cultura Científica y Ciencia Ciudadana del CSIC. El certamen está abierto a personas de cualquier parte del mundo y, en esta segunda edición, la participación puede realizarse tanto en Twitter, como en Instagram Facebook.

¿Cómo participar?

Para participar en #MicropoemasCSIC2, lo fundamental es tener ideas e imaginación. Si necesitas ejemplos para inspirarte, en este enlace puedes ver los resultados de la edición anterior: #MicropoemasCSIC.

Eso sí, no olvides que tu micropoema tiene que estar relacionado con algún aspecto de la ciencia (la investigación científica, el oficio de investigador/a, los avances, los dilemas, las aplicaciones, la importancia del conocimiento científico, etc.). Ten en cuenta también que deberá estar escrito en castellano, ser original y no haber sido publicado con anterioridad.

Dar rienda suelta a la creatividad está muy bien, pero en la micropoesía hay límites. En este caso, tus propuestas deberán tener un máximo de 250 caracteres con espacios y caber en una sola publicación de las redes mencionadas. Además, no podrás presentar al concurso más de tres.

Una vez que tengas claro con cuál micropoema o micropoemas vas a participar, elige la red que prefieras y, si todavía no lo haces, comienza a seguir a @CSICdivulga. Después lanza cada texto en un tuit, un post de Instagram o una publicación de Facebook incluyendo una mención a @csicdivulga y el hashtag #MicropoemasCSIC2.

El concurso permanecerá abierto desde el 21 de marzo (Día Mundial de la Poesía) al 23 de abril de 2023 (Día Internacional del Libro), ambos inclusive, pero no hace falta que lo dejes para el final.

Lotes de libros como premio

Concluido el plazo de participación, un comité formado por personal de cultura científica CSIC seleccionará 10 micropoemas valorando la creatividad, la originalidad, la calidad literaria y la adecuación al tema planteado (la ciencia y la tecnología). Si el tuyo resulta seleccionado, te enviaremos a casa un lote de libros de Editorial CSIC que incluirá títulos relacionados con la poesía, el arte, la ciencia o la divulgación. Para ello, antes te pediremos que nos facilites una dirección postal dentro de España.

Si todavía tienes dudas, puedes consultar las bases completas aquí. ¡Anímate y participa!

Tres pasos para protegerse frente a la desinformación

Por Sara Degli-Esposti y David Arroyo (CSIC)*

Desinformación, manipulación informativa, propaganda, noticias falsas o verificación de noticias son algunos de los términos que resultaban de interés en el ámbito de la comunicación de la ciencia antes de enero de 2020. Con la irrupción de la pandemia de COVID-19, ese interés se extiende a todos los ámbitos de los medios de comunicación, en especial al de las redes sociales.

Ilustración: Kurzgesagt – In a Nutshell, para el proyecto TRESCA

¿Cómo afrontar la desinformación? Jaron Lanier, pionero de la realidad virtual, lo tiene claro: habría que abandonar por completo las redes sociales. Así lo expuso en Ten arguments for deleting your social media accounts right now (diez razones para borrar tus redes sociales ahora mismo), ya que estas solo sirven para hacer que las personas estén más enfadadas, tengan más miedo, sean menos empáticas, estén más aisladas y reaccionen de modo más irracional. Pero, ¿qué pasa si no queremos perderlas y si queremos usarlas, por ejemplo, para que la comunicación científica llegue a más personas? Para reducir los riesgos de exposición a la manipulación informativa, desde el proyecto TRESCA** proponemos una metodología acompañada de un conjunto de herramientas que denominamos ‘Ms.W’ (Misinformation Widget) que nos ayuda a detectar información errónea o, incluso, campañas de desinformación.

Aquí resumimos brevemente esta metodología centrándonos en tres temáticas: la fiabilidad de las fuentes, la veracidad del mensaje y los sesgos del usuario, haciendo hincapié en las emociones que genera cada noticia. Se puede encontrar más información sobre esta metodología en el módulo 5 del curso online gratuito Communicating trustworthy information in the digital world (cómo comunicar información fiable en el mundo digital) y en la Guía LADA Cómo protegerse de la desinformación dentro de la serie ‘Cómo hacer…’ de La aventura de aprender, que se publicará a final de 2022.

Primer paso: verifica la fiabilidad de la fuente de información

  • No confíes en una noticia simplemente porque quien la comparte pertenezca a tu círculo de confianza. Si no confías en la fuente, realiza algunas búsquedas para ver otra información que haya publicado anteriormente.
  • Comprueba que la noticia realmente fue escrita por una persona o una organización que realmente existen, y no por un bot o una cuenta falsa. Fíjate que no existan organizaciones o personas con nombres similares o que compartan la imagen de perfil, y que la cuenta haya sido creado recientemente. Además, puedes hacer uso de herramientas para la detección de bots.
  • Verifica que lo que te ha llegado no ha sido manipulado o generado utilizando imágenes sacadas de contexto. Confirma que la fuente no se corresponde con un sitio de noticias desactualizado o creado ad hoc para dar difusión a una noticia. Si la fuente es un vídeo o tiene imágenes, se pueden usar herramientas de búsqueda inversa.
  • Ten en cuenta la objetividad y la intención del autor y/o de la fuente de la información y su ideología o agenda política. Puedes utilizar el detector de sesgo Media bias para hacerte una idea del sesgo ideológico de la fuente. Además, puedes hacer uso de nuestra metodología para realizar identificación de autores mediante el análisis de estilo de escritura.

Imagen: Marco Verch / Flickr

Segundo paso: determina la veracidad del mensaje

  • Revisa el contenido de la noticia para determinar si toda la información apoya la historia comprobando los enlaces. Comprueba que las citas sean reales y se ajusten al significado original.
  • Verifica si hay otras fuentes que se hayan hecho eco de los que se declara, denuncia o notifica en el mensaje. Comprueba si el contenido se ha hecho con intención de entretener en vez de informar, y si su mensaje es irónico o sarcástico.
  • En el fenómeno conocido como clickbait o ‘señuelo para que hagas click’, se suelen usar titulares que enganchan y no corresponden con su contenido. Antes de compartir, comprueba que esto no sea así. Puedes usar nuestra herramienta de detección de clickbait.
  • Comprueba que el contenido no ha sido identificado anteriormente como bulo, y que no haya habido noticias similares ya denunciadas como caso de desinformación por servicios acreditados de verificación de información.
  • Haz copias de todo el contenido por si en el proceso de comprobación ‘desaparece’ o los archivos se estropean. En el caso de que ‘desaparezca’ contenido, puedes hacer uso de The Internet Archive.

Ilustración: Irene Cuesta (CSIC)

Tercer paso: observa o controla las emociones y analiza la noticia desde distintos puntos de vista

  • Si sientes que tus emociones ‘se disparan’, ponte en alerta. Tus creencias o prejuicios pueden afectar tu capacidad de juzgar justamente la veracidad de la noticia. Muchas campañas de desinformación tratan de provocar tu respuesta emocional para aumentar su difusión.
  • Si el contenido busca provocar una reacción emocional en uno u otro sentido, es probable que sea desinformación. La desinformación intenta aumentar la polarización y la desconfianza entre personas o grupos animándolos al enfrentamiento.
  • Sospecha de cualquier contenido que intente atentar contra la integridad de sistemas electorales, o que promueva discursos de odio o mensajes que apoyen la misoginia, el racismo, el antisemitismo, la islamofobia, la homofobia o la LGTBIfobia, o que promuevan conspiraciones sobre redes globales de poder.
  • Tanto si el contenido está patrocinado como si no, ten en cuenta que pueden utilizar tu actividad previa en una plataforma para identificarte como posible objetivo de una campaña de desinformación, y usar esa información para identificar tus puntos débiles. Por ello, la protección de la privacidad es un elemento crítico para combatir de forma efectiva la desinformación.

 

* Sara Degli-Esposti es investigadora del CSIC en el Instituto de Filosofía (IFS-CSIC) y ha sido la directora científica del proyecto TRESCA; su trabajo de investigación se centra en la ética de la inteligencia artificial. David Arroyo es científico del CSIC en el Instituto de Tecnologías Físicas y de la Información Leonardo Torres Quevedo (ITEFI-CSIC) y experto en ingeniería criptográfica, privacidad y seguridad de la información; ha sido investigador principal (IP) de TRESCA y actualmente es IP del proyecto XAI-DisInfodemics – eXplainable AI for disinformation and conspiracy detection during infodemics (IA eXplicable para la detección de desinformación y conspiración durante la infodemia).

** El proyecto TRESCA, cuyas siglas responden a Trustworthy, Reliable And Engaging Scientific Communication Approaches (enfoques de comunicación científica dignos de confianza, fiables y atractivos), ha recibido financiación del Programa de Investigación e Innovación Horizonte 2020 de la Unión Europea. Los resultados del proyecto, terminado en abril de este año, están disponibles en la web oficial: https://trescaproject.eu.

Ojo al ‘data’: un paseo filosófico por las nubes digitales

Por Txetxu Ausín (CSIC)*

Las nubes son la exitosa metáfora para referirnos a la nueva realidad digital en la que vivimos. Una realidad configurada por las redes sociales, la inteligencia artificial y la analítica de los datos masivos o big data que se recogen en la interacción e interconexión creciente de humanos, artefactos e instrumentos que registran, procesan y reutilizan enormes cantidades de información. Las nubes parecen blancas, etéreas, inofensivas, pero están reconfigurando radicalmente nuestro mundo y nuestras relaciones; por ello son tecnologías disruptivas, que impulsan transformaciones radicales y a gran velocidad en esta nueva era de los humanos llamada Antropoceno. Cada vez más nos configuramos como sistemas sociotécnicos donde todas nuestras interrelaciones están mediadas tecnológicamente; mantenemos una interacción física, cognitiva y hasta emocional con la tecnología, difuminándose las fronteras entre sujetos humanos y artefactos.

Les invito a dar un paseo por las nubes, a pensar este nuevo ecosistema digital de la mano de la filosofía, para indagar y preguntarnos por su esencia, por la concepción del ser humano que entrañan, por el tipo de conocimiento que generan, por su impacto medioambiental, por su ética y su política.

Ilustración de Irene Cuesta (CSIC).

Empecemos por la realidad de los datos

Los datos están en todas partes (“data is all around”), son ubicuos, de modo que se está produciendo una ‘datificación’ de la vida, una representación digital de la realidad, una ontología de datos donde se pretende poner en un formato cuantificado todo, para que pueda ser medido, registrado y analizado. Es decir, todo se transforma en información cuantificable. Así que el tamaño importa, ya que, cambiando el volumen y la cantidad de datos manejados, se está cambiando en cierto modo la esencia de la realidad.

Esta antigua búsqueda de la humanidad se desarrolla hoy exponencialmente por medio de la digitalización y los sistemas de Tecnologías de la Información y la Comunicación (TIC). Se cuantifica el espacio (geolocalización), se cuantifican las interacciones humanas y todos los elementos intangibles de nuestra vida cotidiana (pensamientos, estados de ánimo, comportamiento) a través de las redes sociales, se ha convertido el cuerpo humano en una plataforma tecnológica y se monitorizan los actos más esenciales de la vida (sueño, actividad física, presión sanguínea, respiración…) mediante dispositivos médicos, prendas de vestir, píldoras digitales, relojes inteligentes, prótesis y tecnologías biométricas, en espacios públicos y privados (lo que se conoce como ‘internet de los cuerpos‘). Se datifica todo lo que nos rodea mediante la incrustación de chips, sensores y módulos de comunicación en todos los objetos cotidianos (‘internet de las cosas‘).

Si pensamos en términos ontológicos, no son ya los átomos sino la información la base de todo lo que es (‘internet del todo‘). Un universo compuesto esencialmente de información (infosfera). Una nueva perspectiva de la realidad, del mundo, como datos que pueden ser explorados y explotados. Además, la llamada ideología del ‘dataísmo’ es una nueva narrativa universal que regula nuestra vida y que viene legitimada por la autoridad de los datos masivos: el universo consiste en flujos de datos y el valor de cualquier fenómeno social o entidad está determinado por su contribución al procesamiento de datos. Y esto no es una teoría científicamente neutral porque pretende determinar lo que está bien y está mal con relación a un valor supremo, el flujo de información: será bueno aquello que contribuya a difundir y profundizar el flujo de información en el universo y malo, lo contrario; la herejía es desconectarse del flujo de datos.

     Ilustración de Irene Cuesta (CSIC).

El ser humano de la realidad de los datos

Dicho lo anterior, este paseo nos lleva a la antropología, a la concepción de ser humano y de su identidad que encierran las nubes. Se datifican todos los aspectos de nuestra vida (yo-cuantificado) y, no solo eso, se otorga un valor comercial a esa datificación, de modo que nuestras actividades nos definen como un objeto mercantil (somos el producto). Eso conduce a una constante optimización de uno mismo, donde el tiempo libre se vive igual que el tiempo de trabajo y está atravesado por las mismas técnicas de evaluación, calificación y aumento de la efectividad. Se da una progresiva desaparición de lo privado y una servidumbre voluntaria con relación a las nubes y la ‘mano invisible’ del flujo de datos. El concepto de rendimiento se refiere ya a la vida en su totalidad (24/7) en lo que se ha llamado ‘economía de la atención’ y ‘capitalismo de vigilancia’.

Filosofía del conocimiento

No es más halagüeña la perspectiva desde la filosofía del conocimiento o epistemología. Es cierto que la digitalización ofrece oportunidades de alfabetización científica, de creación de reservas epistémicas, de nuevos espacios formativos y de mayor transparencia y rendición de cuentas de las administraciones, favoreciendo la participación y el compromiso ciudadano con las políticas públicas. Además, las nubes de sanidad digital, educación online o mercados transforman las sociedades de países empobrecidos y contribuyen a la realización de los Objetivos de Desarrollo Sostenible. Sin embargo, la analítica de big data está transformando el método científico privilegiando las correlaciones frente a la causalidad como modelo explicativo de la realidad —recuérdese que una correlación es un vínculo o relación recíproca entre varias cosas—. No obstante, el hecho de que dos eventos se den habitualmente a la vez o de manera consecutiva no implica que uno sea la causa de otro. El big data establece correlaciones muy fuertes entre diferentes eventos o informaciones, pero eso no significa automáticamente que unos constituyan la causa o el origen de los otros, que serían su efecto.

Y aunque el big data se ha planteado como la panacea para la toma de decisiones más acertada, imparcial y eficiente, que evitaría los errores humanos y garantizaría un conocimiento más fiable, ha obviado algo básico, los sesgos. Esto es, los prejuicios y variables ocultas a la hora de procesar la información, las tendencias y predisposiciones a percibir de un modo distorsionado la realidad —sesgos que no desaparecen nunca aumentando el tamaño de la muestra y que están implícitos en los datos o en el algoritmo que los maneja—. Además, disponer de más datos no implica automáticamente un mayor y mejor conocimiento. Tener ingentes cantidades de datos puede conducir a la confusión y al ruido, los datos no son siempre información significativa, y los algoritmos son tremendamente conservadores porque reflejan lo que hay, lo dado, el prejuicio subyacente en la sociedad, escamoteando la discusión acerca de qué valores son preferibles, sin ninguna ambición transformadora. Los algoritmos, que no son sino un conjunto de pasos ordenados empleados para resolver un problema o alcanzar un fin (una codificación de medios y fines), se presentan bajo una apariencia de neutralidad, pero no dejan de ser opiniones encapsuladas.

Ilustración de Irene Cuesta (CSIC).

Ética y ecoética

Ligado a lo anterior, si hablamos de responsabilidad y ética, las nubes digitales presentan riesgos morales importantes en términos de daños a los individuos y a la sociedad:

  • Discriminación por sobrerrepresentación de personas con ciertas características y exclusión de otras; un asunto vinculado a los sesgos, como la discriminación de género o racial. Por ejemplo, las mujeres tienen menos posibilidades de recibir anuncios de trabajo en Google y el primer certamen de belleza juzgado por un ordenador colocó a una única persona de piel oscura entre los 44 vencedores, como señala Cathy O’Neil en Armas de destrucción matemática.
  • Dictadura de datos (políticas predictivas), donde ya no somos juzgados sobre la base de nuestras acciones reales, sino sobre la base de lo que los datos indiquen que serán nuestras acciones y situaciones probables (enfermedades, conductas…).
  • Perfilamiento (configuración de un ‘perfil de riesgo’) y estigmatización, cuando se define y manipula nuestra identidad, invadiéndose la privacidad y espacios íntimos incluso a nivel cognitivo-conductual y emocional.

Pero estas nubes digitales, desde una perspectiva medioambiental y ecoética, tampoco responden a la ‘desmaterialización’ de la economía que prometen. Por un lado, la fabricación de redes y productos electrónicos supera con creces la de otros bienes de consumo en términos de materias primas. Por ejemplo, el gasto en combustibles fósiles utilizados en la fabricación de un ordenador de sobremesa supera 100 veces su propio peso mientras que para un coche o una nevera la relación entre ambos pesos (de los combustibles fósiles usados en su fabricación y del producto en sí) es prácticamente de uno a uno. Por otro lado, los grandes centros de computación y de almacenamiento de datos en la nube requieren enormes cantidades de energía y tienen una alta huella por emisiones de CO2, con un impacto medioambiental muy elevado. El consumo eléctrico es tan grande que las emisiones de carbono asociadas son ingentes, como denuncia el movimiento Green Artificial Intelligence.

   Ilustración de Irene Cuesta (CSIC).

Propiedad y poder

Y es que, para terminar con una reflexión propia de la filosofía política, la que se refiere a la propiedad y al poder, hay que recordar que las nubes digitales son los ordenadores de otros, de esos gigantes tecnológicos, “señores feudales del aire”, como los llama Javier Echeverría, que dominan esta nueva realidad de la internet del todo. Además, las tecnologías digitales, las nubes, modulan la política a través de la manipulación de los mensajes, las fake news, la cultura del espectador o la polarización; los artefactos tienen política, incorporan valores, y la tecnología crea formas de poder y autoridad. Cuando hacemos entrega de (todos) nuestros datos, a cambio de unos servicios relativamente triviales, acaban en el balance de estas grandes compañías. Y, además, esos datos son después utilizados para configurar nuestro mundo de una manera que no es ni transparente (no se conocen los algoritmos de estas grandes compañías) ni deseable, convirtiéndose en un instrumento de dominación.

Un desarrollo justo y socialmente responsable de las nubes digitales exige un empoderamiento tecnológico de la ciudadanía, una alfabetización sobre este nuevo mundo digital, así como un nuevo pacto tecno-social entre usuarios, empresas y estados sobre la base de principios éticos, que evite las injusticias algorítmicas mencionadas (discriminación-perfilamiento-sesgos-exclusión) y que promueva la apropiación social de la tecnología para el bien común. No nos durmamos en las nubes.

* Txetxu Ausín es investigador del Instituto de Filosofía del CSIC (IFS-CSIC), donde dirige el Grupo de Ética Aplicada.