Entradas etiquetadas como ‘reconocimiento facial’

Cómo afecta el uso de la mascarilla al desarrollo emocional de los niños

Hay niños que han nacido ya entre rostros con mascarilla, los efectos a largo plazo de todo esto se evaluarán en el futuro pero podemos realizar ciertas predicciones en base a lo que ya conocemos sobre el funcionamiento de la expresión emocional en el rostro.

Fotografía libre de derechos. Pixabay

Fotografía libre de derechos. Pixabay

En el laberinto de conexiones que suceden dentro de nuestro cerebro, existen unas neuronas conocidas como “células de la empatía”. Se trata de las neuronas espejo, a éstas les debemos llorar o sentir miedo cuando vemos una película, bostezar si vemos a otra persona hacerlo o contagiarnos de la risa de los demás.

Las neuronas espejo son las responsables de la empatía y de la regulación emocional en la relación con los demás; son especialmente importantes cuando somos pequeños, porque es entonces cuando desarrollamos (a partir de los 6 meses o al año de edad) la referencia social, es decir, nuestra capacidad de utilizar y reconocer expresiones emocionales, e intenciones en los demás. La raíz de la empatía.

La mascarilla provoca un bloqueo emocional y en las aulas puede generar una desconexión significativa en la relación entre profesor y alumno, una cuestión que puede interferir de forma negativa en la atención, la memoria o el aprendizaje, áreas donde la comunicación con emoción es imprescindible para integrar cualquier conocimiento en el alumno.

Los profesores intentan suplir esta carencia con una tonalidad de voz más pausada y emocional aunque también más alta y ya se refieren los primeros problemas de afonía en el profesorado. Se necesita un periodo de adaptación para que tanto alumnos como profesores se acostumbren al uso de la mascarilla.

De base, el que un maestro lleve mascarilla tendrá ciertos efectos en el aprendizaje del alumno, el impacto es seguro, pero afectará en mayor o menor medida dependiendo de la edad del niño y necesidades y estilos de aprendizaje.

En los niños más pequeños que aún requieren de un modelado vocal (para aprender a pronunciar los sonidos del lenguaje) o que necesitan más tiempo de expresión facial para entender conceptos, o que tienen necesidades especiales, como en el autismo, las complicaciones aumentan.

¿Qué podemos hacer para reducir el impacto de la mascarilla?

En cuanto a los profesores, pueden apoyarse en más recursos complementarios, como dibujos, esquemas, pizarras digitales, y fomentar aún más el movimiento gestual en el cuerpo para expresar los contenidos.

También fomentar un lenguaje verbal más emocional, ya que no podemos expresar tanto con el rostro, podemos transmitir en nuestro mensaje las emociones que sentimos al ver el resultado de cierta tarea o actividad para no perder el vínculo afectivo, preguntarles a los niños cómo están, cómo se sienten, que entiendan que estáis ahí, como siempre, a pesar de que la mascarilla nos haga parecer más distantes.

En casa, los padres pueden trabajar una educación multisensorial, por ejemplo, con juegos dirigidos mediante el sentido del tacto o con actividades de comunicación a través de los ojos, jugando a adivinar expresiones emocionales parciales y completas.

No os alarméis, los niños se adaptan de forma rápida a los cambios por su gran plasticidad cerebral, quizás pierdan capacidades completas e inmediatas para detectar y reconocer emociones pero se entrenen en una mirada más empática y en ser capaces de conectar con el otro con gestos mínimos, que se vuelvan más perceptivos y perspicaces para captar los sentimientos en los demás.

*Te puede interesar:

*Fuente: https://www.bbc.com/mundo/noticias-52856765

 

Leyendo emociones: humanos vs. máquinas

Para la vida social resulta imprescindible detectar correctamente las emociones de los demás, y según sabemos, estas se manifiestan predominantemente a través del rostro. Hasta los últimos años se creía imposible que las maquinas leyeran las emociones, pero…

¿Sabías que ya hay softwares que reconocen las emociones de la gente?

Fotografía publicada en el perfil Twitter de Affectiva

Fotografía publicada en el perfil Twitter de Affectiva

El psicólogo experto en comunicación no verbal, Alan Crawley, autor del canal ‘Sin verba‘, ha traducido e interpretado, en exclusiva para este blog, un reciente estudio (abril 2020) donde se compara experimentalmente el rendimiento para el reconocimiento facial por parte del hombre con el de la tecnología más avanzada para ello hasta el día de hoy. ¿Quién ganará, el ojo humano o el software?

Las grabaciones de vídeo de lugares tan distintos como aeropuertos, centros comerciales, supermercados y cualquier otro lugar pueden ser analizadas con estos softwares. Su uso incrementa con el paso del tiempo y se extiende a muchos contextos diferentes, aunque aún surgen algunas preguntas: ¿cómo funcionan?, ¿cuán precisos son?

La mayoría de estos softwares trabajan con lo que se conoce como las seis o sietes emociones básicas: alegría, tristeza, temor, ira, asco, sorpresa y desprecio.

Según la teoría neurocultural, éstas son emociones universales que al experimentarlas se manifiestan en el rostro con un determinado conjunto de movimientos faciales únicos e iguales en las personas de todo el mundo.

Prácticamente todos estos softwares funcionan con la misma idea principal de que el rostro es la ventana de los sentimientos reales y ciertas expresiones señalan que se siente una de estas emociones básicas.

En un estudio recientemente publicado en abril de este año 2020, los investigadores Dupré, Krumhuber, Küster, y McKeown, pusieron a prueba la precisión de 8 softwares comerciales en el reconocimiento de estas emociones. Los softwares analizaron 937 videos de expresiones faciales posadas (actuadas) y espontáneas (como respuesta a un estímulo).

Por otro lado, un grupo de 14 participantes evaluó los mismos vídeos. Para descubrir cuál de los grupos lee mejor las emociones, las personas o las máquinas, se compararon las respuestas obtenidas. ¿Qué creen que encontraron?

Las personas identificaron las emociones correctamente en un 72% de las veces en comparación con la precisión claramente menor de entre el 42% y el 62% obtenida por los softwares comerciales.

Fotografía publicada por los autores en la que muestra la comparativa de resultados

Fotografía publicada por los autores en la que muestra la comparativa de resultados

La tasa de acierto de los humanos fue notablemente superior para el reconocimiento de ambas expresiones, posadas y espontáneas, lo que demuestra la valiosa percepción humana.

Para que estos softwares se vuelvan más eficaces, sugieren los autores, deben:

  1. Incluir otras categorías mentales tales como el aburrimiento, interés, dolor y frustración.
  2. Revisar la teoría sobre la que se sustentan.
  3. Contemplar las variables e influencias contextuales.

Y tú, ¿te consideras un buen lector de emociones? ¡Cuéntanos tus experiencias! 🙂

 

*Fuentes:

Dupré D, Krumhuber EG, Küster D, McKeown GJ (2020) A performance comparison of eight commercially available automatic classifiers for facial affect recognition. PLoS ONE 15(4): e0231968. Copyright: © 2020 Dupré et al. Este es un artículo de acceso abierto distribuido bajo los términos de Creative Commons Attribution License , que permite el uso, la distribución y la reproducción sin restricciones en cualquier medio, siempre que se acredite al autor original y a la fuente.

Softwares comerciales usados: CrowdEmotion’s FaceVideo, Emotient’s Facet, Microsoft’s Cognitive Services, MorphCast’s, EmotionalTracking, Neurodata Lab’s EmotionRecognition, VicarVison’s FaceReader and VisageTechnologies’ FaceAnalysis.

La forma de andar delata tu estado de ánimo

Científicos estadounidenses presentan un novedoso algoritmo en esta reciente publicación, en la que identifican las emociones percibidas en función de la forma de caminar y que sirve hasta para identificar a una persona como complemento o incluso por completo, como alternativa al reconocimiento facial.

Los autores han desarrollado un sistema de inteligencia artificial ideado para clasificar el estado de ánimo en cuatro dimensiones: neutro, feliz, enfadado o triste. Analizan la postura de los hombros, el movimiento y la velocidad de éste en las extremidades, la distancia entre pasos consecutivos y la inclinación de la cabeza, entre otros. Pura comunicación no verbal.

La precisión que han conseguido hasta el momento es del 80,07% de éxito en la asociación entre el movimiento y la identificación de los sentimientos experimentados. Pero, ¿por qué es importante este avance? Los investigadores lo tienen claro:

«Las emociones juegan un papel importante en nuestras vidas, [determinan] la forma en que interactuamos con otros seres humanos. Debido a la importancia de la percepción de emociones en la vida cotidiana, el reconocimiento automático de las mismas constituye un problema crítico en muchos campos, desde la industria de los juegos y el entretenimiento, hasta el de la seguridad y el cumplimiento de la ley, pasando por el comercio y la interacción entre hombre y máquina».

Seguramente tú mismo lo hayas notado, cuando te sientes deprimido o has tenido un mal día es más probable que camines más cabizbajo de lo habitual, bajes los hombros, tu postura es menos expansiva y más apocada que cuando te sientes eufórico.

Concretamente, en los resultados del estudio se determina que el ángulo de inclinación de la cabeza se distingue entre emociones felices y tristes, mientras que efectivamente las posturas más compactas y la «expansión del cuerpo» identifican emociones negativas y positivas, respectivamente. En cuanto al nivel de excitación y energía, según los científicos, corresponde con el aumento de los movimientos, la magnitud de la velocidad, la aceleración y los «movimientos bruscos» de las manos, los pies y las articulaciones de la cabeza.

 

Fuente: VenturBeat – AI classifies people’s emotions from the way they walk.

El poder de los ruidos

Lo cierto es que no apreciamos lo suficiente el silencio. La contaminación acústica supone la segunda causa de enfermedad por motivo medioambiental después de la calidad del aire, pero mientras que para la primera sí se toman medidas, para la segunda no. Según los estudios, el ruido nos genera estrés, ansiedad, alteración del estado de sueño-vigilia, irritabilidad, descenso del rendimiento, déficit de atención…

Además de todo esto, que no es poco, nuestra ya conocida experta en logopedia/comunicación no verbal y fundadora de ‘Oh La Voz‘, Carmen Acosta, nos habla de una desconocida afección más que impacta directamente en nuestra forma de comunicarnos con los demás:

Todos hemos experimentado cómo los sonidos ambientales pueden alterar nuestro estado de ánimo. Pero una investigación de la universidad de Duke demuestra que su poder va más allá: también afectan a la forma en la que interpretamos las expresiones faciales de las personas que nos rodean.

Estudiaron cómo la intensidad, el tono y el espectro de frecuencias de los ruidos producidos por las acciones humanas, de los sonidos de los animales, del ruido de las máquinas, y de los sonidos de la naturaleza, alteraban las valoraciones emocionales.  Y hallaron que, al igual que ocurre con la voz y con la música, cualquier cambio en esos parámetros afectaba a la valoración de la emoción como positiva o negativa y al grado de excitación (agitado -calmo) que los sujetos atribuían a los rostros de las personas a las que veían.

De la misma manera que el paisaje sonoro de una película influye poderosamente en las perspectivas del espectador sobre la narrativa , también los sonidos ambientales que nos rodean crean una banda sonora cuyo poder emocional afecta a nuestra experiencia de los sonidos, y, como ahora sabemos, a nuestras evaluaciones de los estímulos visuales que los acompañan.

Y esto es de suma importancia porque una lectura desacertada de las expresiones faciales puede llevarnos a inferir estados emocionales falsos en nuestro interlocutor, condicionando nuestra interacción con él, y pudiendo hacer fracasar la comunicación.

Vivimos inmersos en distintos y poderosos paisajes sonoros formados por voces, músicas y una gran diversidad de sonidos ambientales de los que no podemos aislarnos. Ojalá estas investigaciones abran la vía para desarrollar espacios con una acústica emocional capaz de favorecer las relaciones tanto personales como laborales.

¿Reconoces la amenaza en el rostro de los demás?

Podemos tener dudas a la hora de reconocer la emoción de ira en un rostro, pero tranquilos, nuestro cerebro ya lo hace por nosotros y es capaz de detectar una cara amenazante de forma inconscienteEsto puede parecer inverosímil, pero como el Dr. Harald Schupp y un equipo de investigadores descubrieron ya en el año 2004, estamos programados a un nivel evolutivo para experimentar una respuesta de miedo al detectar la amenaza percibida en otra cara. Si bien es posible que no sepamos lo que está sucediendo, a nivel fisiológico, nuestro cuerpo ciertamente reacciona.

Esta investigación está profundamente arraigada en nuestra historia evolutiva. Nuestras emociones básicas universales (alegría, sorpresa, ira, asco, miedo y tristeza) se basan en cómo evolucionaron nuestros rostros; por ejemplo, entrecerrar los ojos para desconectarnos de las imágenes repugnantes. 

La percepción de amenaza en la cara de otro está profundamente entrelazada con nuestra respuesta de miedo. Las investigaciones han descubierto que detectamos amenazas en los rostros de los demás mucho más rápidamente que las emociones positivas, y nuestros cerebros se preparan rápidamente para lo peor. El trabajo del Dr. Schupp va aún más allá, al observar la respuesta neurológica básica que se activa al percibir la amenaza en la cara de otra persona.

En el estudio, un pequeño grupo de participantes fue reclutado y posteriormente expuesto a una serie de imágenes que representan emociones básicas: amenaza/enojo, felicidad y una cara neutral. Se pidió a los participantes que calificaran cada rostro según el grado en que pareciera amistoso o amenazante, pero solo estuvieron expuestos al rostro por un breve instante, monotorizándose la actividad cerebral para detectar cambios neurológicos.

De acuerdo con sus hipótesis, el estudio encontró que el cerebro muestra una actividad marcadamente diferente casi de inmediato. Sin embargo, la diferencia entre un reconocimiento de amenaza y un reconocimiento amistoso fue mucho mayor que entre amigable y neutral, lo que sugiere que nuestros cerebros están respondiendo de manera más categórica a la amenaza que a otras expresiones faciales. Es más, nuestro reconocimiento no se detiene al detectar la amenaza como sí que lo hace cuando reconocemos un rostro amistoso. En su lugar, continúa procesando el estímulo para formular una respuesta precisa, como huír o luchar.

La comprensión de que nuestro cerebro tiene una reacción profunda e instintiva ante la amenaza nos ayuda a ser más conscientes de lo que sucede instintivamente cuando vemos una cara. Algunas caras pueden inspirar una sensación de ansiedad o consternación subconscientes, y esto perfectamente puede estar vinculado a nuestros procesos de reconocimiento neurológico.

 

 

*Fuente: Can You Spot the Anger? – Humintell