iPhone
Une start-up propose d’utiliser le capteur Face ID des iPhone X,XR et XS pour lire en direct les émotions de l’utilisateur
Les capteurs TrueDepth de l’iPhone X et maintenant de l’iPhone XS et XR, sont utilisés pour le déverrouillage de l’appareil, mais aussi les selfies en mode portrait. Les développeurs ont également exploité ces capteurs de différentes façons, par exemple, pour piloter des jeux.
La startup Observant a imaginé et développé une technologie à la Minority Report qui utilise les capteurs du Face ID, pour lire en direct les émotions des utilisateurs.
La technologie développée par Observant permet d’analyser les expressions faciales des utilisateurs. Cela permet de comprendre comment ils réagissent devant un produit ou un certain contenu dans une app.
Ces données peuvent peuvent être utilisées pour optimiser le parcours utilisateur dans une app, en fonction des réactions faciales de l’utilisateur.
Observant propose un SDK à intégrer dans n’importe quelle app iOS. Celui-ci est déjà utilisé dans des apps d’ecommerce, ainsi que dans des groupes de consultation.
L’idée de son iPhone capturant ses expressions faciales peut paraitre inquiétante. Cependant Observant affirme que toutes les données sont analysées en local sur la machine et rien n’est envoyé sur des serveurs.
L’analyse des expressions du visage pourrait être utile dans plusieurs cas de figures. On peut imaginer, par exemple, d’offrir de meilleures recommandations ou encore détecter quand l’utilisateur s’endort au volant.