octubre 29, 2021

Científicos japoneses quieren crear robots con inteligencia emocional

Los científicos del Instituto Avanzado de Ciencia y Tecnología de Japón están intentando construir robots emocionalmente inteligentes utilizando la neurociencia.
La gran mayoría de las personas pueden percibir y reconocer emociones entre sí. Hasta ahora, los robots no han podido desarrollar el tipo de inteligencia emocional que poseen los humanos con tanta facilidad.

Esto se debe a la dificultad de incluso definir la emoción, y mucho menos de destilar ese concepto en algo técnicamente enseñable. Pero ahora, los científicos de Ishikawa, Japón, creen que tienen una estrategia viable: su objetivo es enseñar a los robots cómo comprender el estado emocional de un ser humano y responder correctamente utilizando la neurociencia cognitiva.

En otro estudio, se propuso a los robots como terapeutas, interactuando directamente con la emoción humana. Sin embargo, generalmente interpretan instrucciones lógicas y se pierden la emoción tridimensional de una voz humana.

 

¿Cómo podemos definir la emoción en el contexto de un robot?

“La emoción dimensional continua puede ayudar a un robot a capturar la dinámica temporal del estado emocional de un hablante y, en consecuencia, ajustar su forma de interacción y contenido en tiempo real”, dijo Masashi Unoki, investigador de procesamiento y reconocimiento de voz en el Instituto Avanzado de Ciencia y Tecnología de Japón ( JAIST).

Los seres humanos comprenden bien las emociones como la felicidad, la tristeza y la rabia, pero a los robots les resulta difícil comprenderlas.

Los investigadores buscan dar a los robots la capacidad de escuchar.

Están intentando enseñar al robot a reconocer “señales de modulación temporal”, que representan la dinámica de las emociones dimensionales. Después de eso, las redes neuronales se pueden usar para extraer características de estas señales que reflejan la dinámica del tiempo.

Sin embargo, debido a la complejidad y diversidad de los modelos de percepción auditiva, la fase de extracción de características resulta bastante difícil.

 

¿Cómo llegaron los investigadores a esta conclusión?

Los investigadores sugirieron una nueva característica denominada cocleagrama filtrado por modulación de resolución múltiple (MMCG), que combina cuatro cocleagramas filtrados por modulación (representaciones de tiempo-frecuencia del sonido de entrada) en varias resoluciones para extraer información de modulación temporal y contextual.

Para dar cuenta de la diversidad de los cocleagramas, los investigadores diseñaron una arquitectura de red neuronal paralela conocida como “memoria a corto plazo” (LSTM), que modeló las variaciones en el tiempo de las señales de resolución múltiple de los cocleagramas y llevó a cabo extensos experimentos en dos conjuntos de datos espontáneos. habla.

Pronto, ¿robots con inteligencia emocional?

“Nuestro próximo objetivo es estudiar la solidez de las fuentes de ruido ambiental e investigar nuestra función para otras tareas, como la clasificación de emociones categóricas, la separación del habla y la detección de la actividad de la voz”, añadió el profesor Unoki.

robot, toy, metal @ Pixabay

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Privacidad y cookies
Copyright presagio,eu 2021
linkedin facebook pinterest youtube rss twitter instagram facebook-blank rss-blank linkedin-blank pinterest youtube twitter instagram