Peut-être que cette technologie mélange de manière obscure vos différentes caractéristiques physiques ? Cette technologie, qui lit soi-disant vos micro-expressions pour déterminer vos états émotionnels internes, écoute le son de votre voix ou observe la façon avec laquelle vous marchez, a-t-elle déjà été utilisée pour déterminer si vous seriez une bonne recrue ? Si vous avez mal quelque part et que vous devriez prendre des médicaments ? Si vous êtes bien attentif en classe ?
Selon le professeur Kate Crawford, co-fondatrice de l’Institut AI Now à l’Université de New York, l’IA est de plus en plus utilisée pour faire toutes sortes de choses, bien qu’elle ait été développée sur des “bases très fragiles”.
AI Now est un institut de recherche interdisciplinaire dédié à la compréhension des implications sociales des technologies liées à l’IA. Il publie des rapports sur les potentielles interrogations et préoccupations liées à cette technologie depuis plusieurs années.
L’institut demande une législation pour réglementer la détection des émotions, ou encore ce qu’il désigne par son nom plus formel : “la reconnaissance des émotions“, dans son dernier rapport annuel :
Les régulateurs devraient interdire l’utilisation de la reconnaissance des émotions dans les décisions importantes qui ont un impact sur la vie des gens et l’accès à certaines opportunités … Étant donné les fondements scientifiques contestés de la technologie de reconnaissance des émotions, une sous-catégorie de la reconnaissance faciale, qui prétend détecter des éléments tels que la personnalité, les émotions, la santé mentale ainsi que d’autres états internes, elle ne devrait pas être utilisée dans les décisions importantes concernant la vie d’êtres humains, comme les entretiens d’embauche par exemple, le coût d’une assurance, l’évaluation de la douleur de patients ou encore la performance des élèves à l’école.
Comment savoir si nous allons être soumis à cette technologie ?
Que nous le réalisions ou non, et c’est probablement “non”, l’IA est utilisée pour gérer et contrôler les employés, choisir les candidats aptes à suivre une évaluation, savoir comment ils sont classés et s’ils seront embauchés ou non. L’IA est en fait une technologie de pointe utilisée dans les processus de recrutement depuis des années.
Sans aucune législation globale, la façon dont cette technologie est utilisée et la transparence des recherches/algorithmes qui sont intégrés dans ces produits reste absolument opaque, et ce malgré le fait que l’IA ne soit pas un simple ensemble d’algorithmes purement mathématique et impartial.
Au contraire, il a été démontré que cette technologie était biaisée vis-à-vis des personnes de couleur et des femmes, et en faveur des personnes qui ressemblaient aux ingénieurs qui avaient développé le logiciel. Ainsi, et c’est tout à son honneur, il y a 14 mois, Amazon a annulé les plans d’un moteur de recrutement basé sur l’IA après que ses chercheurs ont découvert que l’outil n’aimait pas les femmes.
Selon AI Now, le secteur de la reconnaissance des émotions basée sur l’IA se développe de manière exponentielle : à ce stade, elle pourrait déjà valoir jusqu’à 20 milliards de dollars (soit environ 18 milliards d’euros). Mais comme Crawford l’a déclaré à la BBC, elle reste basée sur une science plus qu’approximative :
Parallèlement au déploiement de ces technologies, un grand nombre d’études montrent qu’il n’y a … aucune preuve substantielle qu’il existe une parfaite adéquation entre l’émotion que vous ressentez et l’expression de votre visage.
Elle suggère qu’une partie du problème vient du fait que certains éditeurs de logiciels basés sur l’IA développent ces derniers en s’appuyant sur des recherches archaïques : elle a souligné le travail de Paul Ekman, un psychologue qui a supposé, dans les années 1960, qu’il n’y avait que six émotions de base exprimées via des émotions faciales.
Le travail d’Ekman a été réfuté par des études ultérieures, a déclaré Crawford. En fait, il existe une variabilité beaucoup plus grande des expressions faciales en ce qui concerne le nombre d’émotions et la façon dont les gens les expriment.
Cette expression des émotions change d’une culture à l’autre, d’une situation à l’autre et même au cours d’une seule journée.
Les entreprises vendent des technologies de détection des émotions, en particulier aux forces de l’ordre, malgré le fait que, souvent, elles ne fonctionnent pas. Un exemple : AI Now a mentionné une recherche de ProPublica qui a révélé que les écoles, les prisons, les banques et les hôpitaux avaient installé des microphones censés détecter le stress et l’agressivité avant qu’un acte violent n’éclate.
Mais ce système n’est pas très fiable. En effet, il a été démontré qu’il interprétait les sons brusques et aigus tels que la toux, par exemple, comme une agression.
Est-ce que des organismes de réglementation ont conscience de cette grande confusion ?
Bravo à l’Illinois. C’est souvent un précurseur en matière de protection de la vie privée, comme en témoigne la Biometric Information Privacy Act (BIPA) de l’Illinois, une législation qui protège les gens contre la reconnaissance faciale ou le stockage de leurs empreintes faciales sans leur consentement.
Sans surprise, l’Illinois est le seul État à avoir adopté une législation qui s’oppose aux secrets des systèmes basés sur l’IA, selon AI Now. L’Artificial Intelligence Video Interview Act, qui doit entrer en vigueur en janvier 2020, oblige les employeurs à informer les candidats à l’embauche lorsque l’Intelligence Artificielle est utilisée dans les entretiens vidéo, à expliquer le fonctionnement du système IA et les caractéristiques qu’il utilise pour évaluer l’aptitude d’un candidat pour le poste, obtenir le consentement du candidat pour être évalué par l’AI avant le début de l’entretien vidéo, limiter l’accès aux vidéos et détruire toutes les copies de ces dernières dans les 30 jours suivant la demande du candidat.
Ne jetez pas le bébé avec l’eau du bain
AI Now a mentionné un certain nombre de sociétés de technologie de détection des émotions qui étaient préoccupantes. Mais au moins l’une d’entre elles, HireVue, s’est défendue, déclarant à Reuters que la technologie d’embauche avait en fait contribué à réduire les préjugés humains. Le porte-parole Kim Paone a déclaré :
De nombreux candidats ont bénéficié de la technologie HireVue pour aider à éliminer le biais humain très important dans le processus de recrutement actuel.
La reconnaissance des émotions est également utilisée par certains centres d’appels pour déterminer quand les personnes appelant se fâchent ou bien pour détecter une éventuelle fraude par le biais des caractéristiques vocales.
Pendant ce temps, il y a ceux qui travaillent avec la détection des émotions et qui reconnaissent qu’elle doit être régulée … avec nuance et sensibilité afin d’intégrer les bienfaits que cette technologie peut apporter. Un bon exemple Emteq, une entreprise qui travaille à intégrer la technologie de reconnaissance des émotions dans les casques de réalité virtuelle qui peuvent aider ceux qui tentent de se remettre d’une paralysie faciale provoquée, par exemple, par des accidents vasculaires cérébraux ou des accidents de voiture.
La BBC cite son fondateur Charles Nduka :
Il faut bien comprendre le contexte dans lequel l’expression émotionnelle se fait. Par exemple, une personne pourrait froncer les sourcils non pas parce qu’elle est en colère mais parce qu’elle se concentre ou que le soleil brille et l’éblouie, l’obligeant ainsi à se protéger les yeux. Le contexte est essentiel, et c’est ce que vous ne pouvez pas obtenir simplement en regardant la cartographie visuelle, assistée par ordinateur, d’un visage.
Oui, réglementons cette technologie, a-t-il déclaré. Mais s’il vous plaît, législateurs, n’entravez pas le travail que nous faisons actuellement au niveau de la reconnaissance des émotions en médecine.
Si certaines choses devront être interdites, il est très important que les gens ne jettent pas le bébé avec l’eau du bain.
Billet inspiré de Emotion-detection in AI should be regulated, AI Now says, sur Sophos nakedsecurity.