A l’université de Tsukuba Al Lab, on analyse les signaux émotionnels que le visage retransmet. Il est ainsi possible de les transmettre à un robot pour qu’il exécute des ordres.

Le principe de la reconnaissance d’expressions faciale n’est pas basé sur un système à base de caméra, mais sur un casque que porte l’opérateur. Ce casque capte les EMG (Signaux Électromyographiques), petits signaux électriques produits par les nerfs lorsque qu’un muscle bouge, et les analyse pour en déduire l’expression du visage.

Ce système a d’abord été appliqué pour contrôler les expressions d’avatar comme dans Second Life.

Mais ce système couplé à un robot intelligent, comme le Nao, permet de lui transmettre des informations utiles pour guider une action en fonction de notre émotion.

Voici une vidéo qui montre un robot Nao qui sélectionne les cations à effectuer en fonction du mécontentement de l’opératrice.