Exprimer des émotions
Estelle Leroy et Yan de Kerorguen
Aimer, dormir, manger, habiter, circuler, penser…
Chaque mois, Place-Publique vous donne rendez-vous avec une esquisse illustrée de votre vie quotidienne future.
Extraits du livre « Vivre en 2028. Notre futur en 50 mots clés » (Avec l’aimable autorisation des Editions Lignes de Repères)
Vous êtes assis dans votre salon en train de lire un roman très prenant. A la fin, le personnage que vous affectionnez le plus disparaît. Cela vous rend triste. Inutile de prendre votre mouchoir pour sécher quelques larmes, votre petit robot domestique a détecté votre émotion, vous console d’un sourire.
Ce scénario n’a rien de farfelu. Le jour est proche où l’ordinateur comprendra nos gestes de colères ou nos regards qui trahissent déprime ou fatigue. Peut-être bientôt, vos pensées n’auront plus de secrets pour les autres.
En effet, à échéance 2024, les ordinateurs en mesure de comprendre sans difficultés notre mauvaise humeur seront vraisemblablement choses courantes. Des systèmes intelligents baptisés « tuteurs affectifs » seront capables de voir l’inquiétude, le désintérêt ou au contraire la satisfaction d’un enfant à qui on donne des cours de maths.
On verra aussi sans doute des micro-caméras qu’on peut apposer discrètement sur la branche de la lunette ou sur une casquette, et qui permettront de détecter les nuances des émotions en analysant le battement des cils ou le mouvement des lèvres de la personne en face. Est-ce qu’elle s’ennuie ? Est ce qu’elle se plait ?
Ces appareils baptisés « ordinateurs émotionnels » seront très précieux pour certains usages : la santé, l’éducation, le loisir ou la sécurité.Par exemple : reconnaître des états de fatigue au volant et prévoir des systèmes d’alarme appropriés. Ou bien suivre le visage d’un enfant en train de jouer face à une caméra et de reconnaître ses émotions afin d’imaginer des personnages qui correspondent à ses attentes.
Les « ordinateurs émotionnels » pourront être utilisés pour la vente en ligne sur Internet et réagir en fonction de l’émotion du consommateur, ou dans l’enseignement à distance afin de savoir si l’élève comprend le cours. Ces outils sont déjà là, à l’étude dans les labos.
Qu’il s’agisse d’analyser les expressions d’un visage ou le son de la voix, de pouvoir interpréter les signes du visage et leurs nuances, la détection des émotions par ordinateur est un domaine plein de promesses, bonnes pour les uns inquiétantes pour les autres. De nombreux instituts développent des bases de données de visages qui serviront à décrypter nos expressions.
Ainsi, une équipe de l’Université de Californie, à San Diego, a analysé les mouvements de 100 000 visages afin de mettre au point un lexique d’expressions permettant aujourd’hui de les reconnaître par ordinateur.
Au laboratoire Heudiasyc-CNRS/UTC, à l’Université technologique de Compiègne, Franck Davoine développe des méthodes d’analyse de visages sur la base de modélisations statistiques offrant la possibilité de classer les émotions à partir de 40 paramètres. « Elle s’appuient sur des travaux des psychologues. Ces derniers ont défini six classes d’émotions universelles partagées par l’ensemble des humains sont la peur, la joie, la colère, la tristesse, le dégoût et la surprise. Le taux de reconnaissance des émotions s’élève à 85%, précise le chercheur. Elles sont observables par les grimaces et les gestes qui les accompagnent ».
Application militaire également avec le projet PAL mené par le laboratoire national Sandia de la société américaine Lockheed Martin. Ce système de détection permet à des chefs d’équipe ou des officiers de surveiller et contrôler l’état émotionnel d’un groupe à une réunion avant de prendre une décision importante ou de mener une action déterminante. Chaque participant ou soldat est équipé de capteurs qui mesurent en permanence son pouls et le rythme de sa respiration, tandis qu’une caméra et un micro détaillent son expression et son intonation.
De son côté, l’Université de Cambridge, en collaboration avec MIT aux Etats-Unis, a développé un programme de reconnaissance émotionnelle basé sur un système de caméra.
Le programme cible des points précis du visage tels que la pointe de nez ou le coin de la bouche. L’ordinateur est capable de reconnaître plus de 24 mouvements faciaux, du froncement du sourcil au front qui se plisse, du hochement de tête aux lèvres qui se pincent. Cette “machine qui lit votre esprit” (mind-reading machine) peut interpréter votre expression, via des modèles qui permettent de comprendre toute une gamme d’émotions allant du désarroi à la concentration.« Il permet d’identifier un grand éventail d’états d’esprit» explique le professeur Robinson, de Cambridge, qui a mené la recherche. L’appareil est ainsi capable d’attribuer à une pensée, et ainsi de comprendre l’intention qui se trame derrière. L’ordinateur donne des réponses justes à 85 % quand il analyse des visages d’acteurs reconnaît le professeur Robinson, et seulement à 65 % quand il s’agit de personnes normales dans la vie de tous les jours
Un ordinateur capable de lire dans les pensées ? George Orwell en aurait presque froid dans le dos.
Alimenté par les sciences du cerveau, ce type de recherches sur la pensée fait florès. Mais elles n’ont pas forcément de visées mercantiles. Grâce à ces ordinateurs émotionnels, les autistes qui ont du mal à reconnaître les émotions de leurs interlocuteurs pourront être en mesure d’en saisir les nuances et de mieux communiquer avec le réel.
La surveillance des personnes dans le coma et la psychothérapie trouveront dans ces instruments un renfort de premier plan. Ils seront aussi très utiles aussi pour décoder les mimiques faciales de personnes à handicap qui n’ont que leur visage pour communiquer avec l’autre.
Déjà, la société américaine Cyberkinetics a mis un point un composant bourré d’électrodes qui, lorsqu’ils sont reliés à des neurones, permettent à une personne handicapée de déplacer, par la pensée, le curseur de la souris sur un écran d’ordinateur.