Halo d’Amazon, un hold-up de nos émotions

Halo, le bracelet connecté d’Amazon, ambitionne d‘interpréter nos émotions à partir des variations et de l’intonation de notre voix. Bien que séduisante, cette fonctionnalité pourrait en réalité servir le capitalisme de surveillance plus que notre bien être. Analyse de Laurence Devillers, Ethical Advisor chez AI for Tomorrow.

Halo, le bracelet connecté d’Amazon


La reconnaissance des émotions est mon domaine de recherche depuis 20 ans. Je construis des modèles grâce à des IA (apprentissage machine, réseaux de neurones, deep learning) nourries de DATA qui apprennent les correspondances entre les variations d’intensité, de rythme et de timbre de la voix (ce qu’on appelle la prosodie) et différents types d’émotions (colère, tristesse, joie…).


A l’heure actuelle, cette technologie est loin d’être fiable que ce soit dans la voix ou dans l’image. En effet, les émotions sont des matériaux très complexes à manier [pour une IA] car elles dépendent du contexte et de la personne, de sa voix, son âge, sa culture et de son environnement social. Les systèmes qui détectent les émotions dans le langage spontané à partir d’indices dans la voix sans connaissances linguistiques, ni de tâche particulière ont souvent des performances de 65% à 70% sur 4 classes sur des corpus de la communauté scientifique. Je relate des exemples d’applications qui sont loin d’être fiables dans mon ouvrage « Les robots émotionnels » paru en 2020 à l’Observatoire. Pour être efficace pour des applications de santé notamment, les modèles devraient être précisément paramétrés en fonction des personnes. Ces machines “empathiques” (qui détectent nos émotions et simulent de l’empathie) sont et pourraient être dans le futur des assistances précieuses pour les soignants en cas d’épidémie, pour le personnel médical, médecins et infirmiers et des compagnons virtuels, notamment pour les personnes dépendantes et les personnes âgées à condition d’être adaptées à la personne ou aux groupes de personnes dans un contexte particulier.


Les industriels en sont conscients et se gardent bien de présenter le système Halo comme un accessoire médical. Halo se contente de vouloir améliorer le “bien-être émotionnel” de son propriétaire. Si les systèmes actuels n’ont pas de réelles applications, sont des gadgets peu chers, demandez vous si vous n’êtes pas le produit… Ils sont là sans doute pour collecter des données et nous rendre de nouveaux systèmes.

Halo est un outil de marketing idéal qui collectionne vos données. Avec ce type de données, les industriels pourraient facilement adapter leurs offres à l’état émotionnel de leurs clients et les manipuler. Des solutions génériques comme le bracelet Halo, qui juge quand vous avez l’air d’être en colère ou content, ont des buts très discutables. Déjà la détection des émotions commence à être utilisée pour le recrutement et pose des questions de discrimination et d’égalité de chance.

Halo, le bracelet connecté d’Amazon


Chatbots, robots émotionnels, objets connectés, pilotés par des IA nourries de DATA pourraient être la meilleure des assistances si nous avons conscience des risques. Il nous faut apprendre ce que font ces systèmes complexes au plus vite, leurs potentiels et les risques qu’ils induisent car la technologie évolue et les algorithmes d’apprentissage vont bientôt se perfectionner en apprenant dans notre environnement de manière autonome. Ils pourraient devenir des compagnons numériques, empathiques et toujours disponibles. Nous leur confirons notre intimité, nos secrets et nos attentes; Ils s’en nourriront pour nous séduire et guider nos choix. Les robots émotionnels doués de la possibilité d’interagir en langage naturel, de détecter certaines de nos émotions et d’y répondre en simulant de l’empathie vont avoir un fort pouvoir sur nous. Nous devons collectivement nous prémunir de ces risques. La RGPD a déjà mis des limites pour l’utilisation de nos données en Europe. Faire des réglementations n’est pas le bon moyen, nous n’aurons jamais tout anticiper. L’éthique est un bastion face à ces risques, nous devons l’intégrer dans le design des machines et dans nos usages.


Laurence Devillers,

Ethical Advisor d'AI For Tomorrow

Professeur en IA et éthique Sorbonne/CNRS-LIMSI, membre du CNPEN (CCNE numérique) et du GPAI (Global Partnership on AI) sur le futur du travail

Livres : Les robots émotionnels (2020), Des robots et des hommes (2017) et La souveraineté numérique dans l’après-crise (2020)

Lire l'article sur notre Medium

Découvrir notre newsletter

Vous affirmez avoir pris connaissance de notre Politique de Vie Privée et pouvez vous désinscrire à tout moment nous nous contactant à aifortomorrow@gmail.com 

AI FOR TOMORROW

Suivez-nous aussi sur les réseaux sociaux !

  • LinkedIn Social Icône
  • Facebook Social Icône
  • Twitter Icône sociale
  • medium
  • Youtube

Aller voir l'Innovation Challenge

Nous contacter