Prospectives – L’expérience client sous le signe des valeurs éthiques dans l’utilisation du numérique

Interview de Laurence Devillers, Professeur en IA à Sorbonne/CNRS-LIMSI (SACLAY)
Chaire Humaaine : Human-Machine Affective Interaction & Ethicsmembre du GPAI : Global Partnership on AI sur l’avenir du travail, membre du CNPEN (Comité National Pilote d’Éthique du Numérique)

 

L’importance des valeurs aujourd’hui pour l’individu concerne ses choix de consommation et d’employeur mais aussi ses choix numériques. Dans un avenir proche, la robotique sociale et les agents conversationnels d’assistance (chatbots) seront utilisés pour certains aspects de l’éducation, du travail, du soin, en automatisant la surveillance, l’entraînement, la motivation et leur aspect «  compagnon  ». Les (ro)bots «  affectifs  » comme les enceintes vocales qui sont déjà au sein de nombreux foyers, seront de plus en plus utilisés dans la société, pourraient devenir un moyen d’influence des individus. L’utilisation de chatbots et robots personnalisés grâce à la détection des émotions pourrait amplifier les phénomènes de manipulation et d’influence. L’influence des affects sur la prise de décision est importante. Les nudges, sorte de manipulations douces, issues des sciences comportementales consistent à inciter les individus à modifier leur comportement sans les contraindre, en utilisant leurs biais cognitifs et leurs réactions émotionnelles. Les travaux sur le nudging prennent leurs sources dans les travaux de R.Thaler, prix Nobel d’économie en 2017.

 

Des émotions dans les machines

L’informatique affective est née en 1997 des travaux au MIT de Rosalind Picard (Picard, 1997) et regroupe trois technologies : la reconnaissance des émotions des humains, le raisonnement et la prise de décision en utilisant ces informations, la génération d’expressions émotionnelles. Ce domaine est par essence pluridisciplinaire. La reconnaissance des messages sociaux véhiculés par les visages et les voix, et en particulier les expressions émotionnelles, est un élément indispensable à la communication avec les humains et à l’insertion dans toutes les sociétés. De façon consensuelle, l’émotion est définie comme une réaction à un événement/situation réelle ou imaginaire comprenant plusieurs facettes ou composantes. Trois composantes sont généralement acceptées comme constituants essentiels de la réaction émotionnelle. Il s’agit du sentiment subjectif (vécu émotionnel), de la réaction physiologique (tremblement, rythme cardiaque accéléré) et de l’expression émotionnelle (faciale, vocale, gesturale ou posturale). Ces technologies de simulations affectives commencent à arriver dans les objets autour de nous. Une fois entrée dans l’usage quotidien, l’informatique affective a le potentiel de changer massivement notre façon d’interagir avec les dispositifs informatiques et robotiques : Ils pourront répondre de manière plus appropriée à nos émotions et à nos humeurs, et montrer des signes d’empathie par imitation. Toutefois, dans la plupart de ces applications, sinon toutes, une évaluation fiable de l’affect et du comportement affectif est essentielle ainsi qu’une évaluation en continu de ces systèmes. Une percée majeure dans ce domaine – comme cela a été le cas pour de nombreux problèmes connexes de traitement intelligent des signaux – est venue avec l’avènement et l’utilisation croissante de l’apprentissage profond. Si cette approche a permis un nombre impressionnant de succès dans l’amélioration des performances, il est notable que les approches n’intègrent pas encore assez d’informations contextuelles pour pouvoir reconnaître et interpréter de façon fiable les émotions.

Et l’éthique dans tout cela ?

Les robots et agents sociaux et affectifs soulèvent ainsi de nombreuses questions éthiques, juridiques et sociales. Qui est responsable en cas d’accident : le fabricant, l’acheteur, le thérapeute, l’utilisateur ? Comment réguler leur fonctionnement ? Faut-il intégrer des règles morales dans leur programmation ? Contrôler leur utilisation par des permis ? Pour quelles tâches souhaitons-nous créer ces entités artificielles ? Comment préserver notre intimité, nos données personnelles ? Tout système doit être évalué avant d’être mis dans les mains de son utilisateur. Comment évaluer une intelligence artificielle qui apprend des humains et s’adapte à eux, ou qui apprend seule ? Peut-on prouver qu’elle se cantonnera aux fonctions pour lesquelles elle a été conçue, qu’elle ne pas dépassera pas les limites fixées ? Les données que la machine exploite pour son apprentissage la dirigent vers certaines actions. Qui supervisera la sélection de ces données ?

Ces questions prégnantes ne sont évoquées que depuis peu dans les comités d’éthique. Les progrès spectaculaires du numérique permettront un jour d’améliorer le bien-être des personnes, à condition de réfléchir non à ce que nous pouvons en faire, mais à ce que nous voulons en faire. C’est pourquoi la plus importante association professionnelle internationale du numérique, l’institut des ingénieurs électriciens et électroniciens (IEEE), organisation savante mondiale, a lancé une initiative en 2016 pour réfléchir à une éthique relative aux systèmes autonomes, que le HLEG sur l’IA en Europe à mener une consultation sur les principes majeurs à adopter, que le GPAI (Global Partnership on AI) a été mis en place en juin 2020, comité international qui réfléchit à 4 axes fondamentaux : L’IA responsable, La gouvernance de données, L’avenir du travail et Innovation et commercialisation. L’heure de la mise en pratique est arrivée. L’intelligence artificielle n’est plus une fantaisie futuriste, c’est aujourd’hui un vrai défi d’entreprise. À l’avenir, la transparence du numérique et les moyens d’encourager les industriels à suivre des chartes éthiques pourrait être fondamentales. Les entreprises ayant des normes claires pourraient être plus enclines à gagner la confiance de leurs clients et à éviter les problèmes juridiques. Il faut éviter un déficit de confiance mais également une confiance trop aveugle dans les programmes d’intelligence artificielle. Un certain nombre de valeurs éthiques sont importantes : la déontologie et responsabilité des concepteurs, l’émancipation des utilisateurs, l’évaluation, la transparence, l’explicabilité, la loyauté, et l’équité des systèmes, enfin l’étude de la co-évolution humain-machine (la machine s’adaptera à l’humain et l’humain à la machine).

Votre navigateur est obsolète !

Mettez à jour votre navigateur pour afficher correctement ce site Web. Mettre à jour maintenant

×