La radio que detecta tus emociones para elegir la música más adecuada y otros ejemplos de “máquinas empáticas”

_94242298_0m7a9493_slistenerwithsoloradioSolo, la “radio emocional”, trata de adivinar cómo te sientes por tu expresión
¿Nos llevaríamos mejor con las máquinas inteligentes si pudieran entender cómo nos sentimos?
Muchos ingenieros en robótica y en computación parecen pensar que sí, por lo que están tratando de crear máquinas más cada vez más humanas.
Un ejemplo es “Solo”, la “radio emocional”.
Se trata de un dispositivo que se asemeja a un reloj grande, que cuenta con una pantalla de cristal líquido (o LCD) en su centro.
Cuando te aproximas a él, la cara del pictograma muestra una expresión neutra.Pero luego toma una foto de tu cara, la antena de uno de sus laterales parece cobrar vida, y la pantalla indica que está pensando.
“Cuando hace esto, está analizando las diferentes expresiones de tu cara para determinar cómo de feliz, triste o enojado estás”, explica Mike Shorter, quien trabaja en Uniform, la empresa de diseño e innovación de Liverpool que creó Solo.
“Entonces pasa a tocar aquella música que le vaya mejor a tu estado de ánimo”, agrega.
Outkast toca “Hey Ya!” en los premios de música MTV en el 2004.
Si Solo piensa que te sientes feliz, tocará una canción movida como “Hey Ya!” (¡Eh, tú!) del grupo Outkast.
Sin embargo, si percibe que estás triste, tocará algo como “Everybody Hurts” (“Todo el mundo sufre”) de REM.
Y si ve que estás enfadado, puede premiarte con una dosisde Motorhead.
“Computación afectiva”
Los creadores de Solo buscan que además de tocar música acorde a tu humor, sea capaz de influenciarlo. Por ejemplo, cuando te encuentras conduciendo.
En una situación en la que has estado conduciendo durante mucho tiempo, la radio podría empezar a tocar música movida si percibe que tienes el rostro cansado para levantar tu ánimo.
Los creadores del robot Pepper piensa que darle empatía emocional lo hará más efectivo
El área que estudia como hacer ordenadores y máquinas más empáticas se conoce como “computación afectiva”.
Existen ya varios ejemplos en el mundo de máquinas “empáticas”.
Uno de ellos son los robots Nao y Pepper desarrollados por la empresa Softbank Robótica de Japón.
Pepper es una especie de lindo humanoide de 1,2 metros de altura, que ya ha sido desplegado en hospitales, centros comerciales, bancos y estaciones de tren. Ha sido desarrollado conjuntamente con la firma francesa de robótica Aldebaran.
Mientras tanto, Nao,su versión de tamaño niño (de unos 59 cm) está siendo utilizado en las escuelas para ayudar a los niños con autismo, así como en las unidades pediátricas de los hospitales.
El robot Nao de 59 centímetros está siendo usado en escuelas y hospitales
Otro invento de Softbank es el “motor de emoción” dentro del Honda NeuV, un prototipo de automóvil eléctrico automatizado que fue presentado en la feria Electrónica de Consumode este año en Las Vegas.
El “motor de emoción” es una tecnología impulsada por inteligencia artificial-que combina sensores biométricos y cámaras- que trata de detectar las emociones de los conductores y aprender del tipo de acciones que resultan de ellas.
Por ejemplo, los conductores enojados que conducen demasiado rápido y de forma errática podrían ser alentados a calmarse. Y el sistema podría incluso reducir el poder del coche temporalmente, o cambiar la conducción al modo autónomo, hasta que el conductor se haya calmado.
Este “asistente” del conductorpodría analizar cuál el estado emocional del conductor y proseguir a hacer recomendaciones de música basadas en su estado de ánimo, cambiar la iluminación del auto e incluso activar aromas que mejoren su estado de ánimo.
Otra empresa, Affectiva, con sede en Boston, EE.UU., ha desarrollado Affdex, un “software de reconocimiento de emociones” que examina minuciosamente cambios en nuestras expresiones faciales cuando estamos viendo anuncios, programas de televisión o películas.
El software de inteligencia artificial ha estudiado casi cuatro millones de rostros – y sus cambiantes expresiones – de más de 75 países.
Empresas como Sonyestán utilizando el software para analizar cómo responden las audiencias a las escenas de películas, y agencias de publicidad como Millward Brown lo están utilizan para medir las respuestas a sus anuncios de televisión.
Affectiva, que surgió del Laboratorio de Medios del Instituto de Tecnología de Massachusetts es similar a Emotient, otra compañía que enseña a las computadoras a reconocer la expresión y la emoción y que fue comprado por Apple el año pasado.
¿Lees mal la situación?
Pero a pesar se su popularidad, ¿funciona realmente esta tecnología?
David Lane, profesor de ingeniería de sistemas autónomos en la Universidad Heriot-Watt de Edimburgo, asegura que hay que ser cauteloso.
El software de Affectiva distingue las emociones humanas de las expresiones faciales.
Lane señala que los errores cometidos por las aplicaciones de computación afectiva podrían tener serias consecuencias.
“Hay mucha investigación en este campo con robots sensibles a nuestros gestos, tono de voz, expresiones oculares, etc., pero uno de los problemas es hacerlo bien”, dice.
“Si Siri o algún otro asistente activado por voz en tu teléfono falla en darte los resultados del fútbol, tienes alternativas, pero si falla una función de computación crítica y afectiva, eso causará serias frustraciones como mínimo”, explica.
Christian Madsbjerg, socio fundador de Red Associates, “consultora en ciencias humanas”, advierte que las aplicaciones afectivas son “construidas para modelos occidentales, japoneses o chinos, y las emociones son diferentes en otras culturas”.
También señala quenuestros cuerpos, y su estado físico, son crucialespara analizar nuestros estados de ánimo y reacciones.
Las máquinas, como las personas, se pueden equivocar al tratar de adivinar lo que estamos sintiendo.
“Una respuesta emocional a un anuncio en la cálida y oscura sala de un grupo de estudio puede no tener relación con la forma en que se percibe el mismo anuncio en el hogar o en una plataforma de metro”, argumenta.
De la misma manera, un violinista solitario en el Carnegie Hall en un punto alto de su carrera puede sentirse exultante, pero su rostro no lo muestra, dice, porque se está concentrando con fuerza. Un robot tendría dificultades para interpretar su expresión facial “congelada”, sostiene.
Los creadores de Solo también admiten que la radio no siempre lee las emociones correctamente.
E incluso que el robot Pepper se equivoca algunas veces.
“Después de trabajar hasta tarde varias noches y encontrarme malhumorado, Pepper añadió 10 a 12 años a mi edad cuando evaluó mi rostro”, explica Carl Clement, fundador de Emotion Robotics, un socio británico de Softbank en Europa.
Probablemente Solo, la radio emocional, podría responder con una sonrisa irónica a esto. ¿Y quizás arrancarse con un “Joven de corazón” de Frank Sinatra?

Leave a Reply