« L'éthique doit structurer la production des robots de compagnie »

« L'éthique doit structurer la production des robots de compagnie »

Avec l’invasion des assistants intelligents, la relation homme-machine est bouleversée. De plus en plus affective, elle brouille dangereusement notre perception entre le vivant et l’artefact, selon la chercheuse Laurence Devillers. Elle appelle à développer une conscience internationale pour encadrer ces nouveaux objets sociaux.

Depuis cet été, pour moins de 60 euros, Amazon propose aux français d’acquérir Alexa, un assistant intelligent qui leur parle et peut même anticiper leurs besoins. L'éthique et le business sont-ils compatibles ?

Les deux concepts d’éthique et de business ne sont pas incompatibles. Le concept d'« éthique » est en général lié aux actions estimées bonnes, il est souvent distingué du concept de « morale » qui est marqué par des normes, des obligations et des interdictions. « Le développement de l'intelligence artificielle (IA) est un business, et les business ne s'intéressent notoirement pas à des garanties fondamentales en particulier philosophique, mais également sécuritaire et sanitaire » dénonce Robert James Sawyer, écrivain de science-fiction canadien. Mais peut-on réellement produire efficacement en donnant confiance aux clients si on oublie les valeurs de la société ?

Une démarche éthique est en fait d'une grande efficacité économique. En d'autres termes, l'éthique n'est pas seulement une marque adossée à la notion de business pour se donner bonne conscience mais fondamentalement une méthode structurée pour apprendre à produire mieux, à produire plus et dans de meilleures conditions sociales.

Aux trois lois d'Asimov, vous ajoutez 11 commandements pour les robots sociaux. Les intelligences artificielles de Google ou Amazon sont-elles plus dangereuses que ce qu’imaginait l’auteur de science-fiction ?

Pour Isaac Asimov, les robots n'étaient que des machines n'ayant pour objectif que d'effectuer les tâches pour lesquelles les ingénieurs les avaient conçues. Afin d'éviter tout danger pour l'Homme, les trois lois d’Asimov devaient être intégrées au plus bas niveau du « cerveau positronique » (selon les termes d'Asimov) des robots, garantissant ainsi leur inviolabilité.

Dans mon ouvrage « Des robots et des hommes : mythes, fantasmes et réalité »[1], je propose d’enrichir les lois d’Asimov avec des commandements adaptés aux robots assistants de vie. Les fondements de ces commandements viennent en partie de retour d’expériences d’interactions lors de mes recherches entre des personnes âgées et des robots.

1 – Donnés privées : « Tu ne divulgueras pas mes données à n’importe qui. » 
2 – Droit à l’oubli : « Tu oublieras tout ce que je te demande d’oublier. »
3 – Sécurité : « Tu pourras te déconnecter d’Internet si je te le demande. »
4 – Contrôle : « Tu seras régulièrement contrôlé pour évaluer ce que tu as appris. »
5 – Explicabilité et traçabilité : « Tu pourras m’expliquer tes comportements si je te le demande. »
6 – Loyauté : « Tu seras loyal. »
7– Consentement :  « Tu seras empathique et simulera des émotions, seulement si je le sais !  »
8 – Risque de dépendance : « Tu stimuleras ma mémoire et veilleras à ce que je ne devienne pas trop dépendant de toi ! »
9 – Risque de confusion : « Tu feras attention à ce que je ne te confonde pas avec un être humain ! »
10 – Adaptation aux règles sociales « Tu apprendras à vivre avec des humains et tu t’adapteras aux règles sociales. »
11 – Utilité et bienveillance : « Tu seras bienveillant et utile. Et pourquoi pas, doué d’un peu d’humour ! »

Il est important de commencer à construire les robots sociaux de demain ethic by design. Nous avons besoin de démystifier, de former à l’intelligence artificielle et de remettre au centre de la conception de ces systèmes robotiques, les valeurs de l’humain.

Quelle réflexion devrait précéder à tout développement d'intelligence artificielle ?

Il est nécessaire de s’interroger sur les effets que pourraient avoir les systèmes d’intelligence artificielle, y compris hors des usages pour lesquels ils sont conçus. Le robot est un objet matériel qui devient un système sociotechnique dès qu’il est utilisé.

L’impact sociétal est important car la robotique a la particularité de concevoir des machines physiquement incarnées et non immatérielles comme la majorité du monde numérique. Les robots sont également facilement mis en scène et peuvent attiser les peurs.

Les roboticiens connaissent les limites théoriques des machines, ils savent par exemple qu’il est impossible d’équiper un robot autonome de règles éthiques parfaitement adéquates, que le traçage complet de son comportement est inaccessible.

L’attitude éthique du roboticien est de faire le lien entre les deux aspects, sociétaux et techniques en travaillant également sur les usages avec des experts d’autres disciplines.

Les astronautes de l’ISS viennent d’accueillir Cimon à bord, un assistant virtuel tout rond qui arbore un large sourire. Les robots de compagnie doivent-ils simuler des émotions pour mieux se faire adopter ?

Un robot embarque des modules d’intelligence artificielle pour percevoir, raisonner et générer des actions. Un robot de compagnie est capable d’interagir avec les humains. Un robot affectif a, en plus, la capacité de détecter des indices émotionnels (dans la voix, le visage, la posture ou encore les gestes), de dialoguer en prenant en compte ces informations émotionnelles et de répondre par des comportements affectifs comme l’empathie.

Détecter les émotions de la personne à partir d’indices paralinguistiques et adapter son comportement semblent des capacités très utiles aux robots pour gérer une interaction spontanée. Les systèmes actuels sont cependant encore très loin de savoir converser et de pouvoir détecter les émotions complexes de la vie de tous les jours. Ils possèdent des facultés de compréhension très pauvres et n’ont aucun sens commun. Malgré cela, l’humain projette sur ces objets des capacités humaines et les anthropomorphise.

Bien évidemment, la ressemblance du robot avec l’humain ou avec l’animal contribue à susciter l’émotion, mais d’autres voies sont également utilisées comme des mimiques schématisées, des intonations de son ou de voix, un aspect de peluche.

Engager l’utilisateur dans une interaction avec un robot doté de capacités affectives, faire qu’il prenne du plaisir à interagir avec lui, faire qu’il ait confiance en lui, sont des buts de la robotique de compagnie.

Mais si les systèmes singent les comportements des humains, encore faut-il prendre en compte les risques de confusion pour une grande partie du public.

Est-ce responsable dès lors de leur confier l'assistance de personnes en fragilité ?

Les robots exécutent des programmes informatiques pour simuler ces comportements mais n’ont pas de conscience phénoménale, ni de sentiments, ni ce désir ou « appétit de vivre » que Spinoza désigne du nom de conatus[2] (effort pour persévérer dans l’être) qui se rapporte à toute chose aussi bien au mental qu’au corps.

Toute imitation du vivant incite à comparer la réalisation artificielle au prototype naturel. Cette comparaison peut amener à solliciter l’imaginaire pour brouiller la frontière entre l’artificiel et le naturel comme le pratique le cinéma.

Il est nécessaire de s’interroger sur l’utilité et les effets de la ressemblance au vivant notamment auprès de personnes fragiles et de prendre soin de communiquer clairement sur ce point auprès du public[3].

Par exemple, des robots simulant des émotions mis dans les mains d’enfants très jeunes pourraient avoir un effet désastreux sur leur apprentissage des interactions émotionnelles entre humains. Notre vie affective se déroule dans un environnement social. Les émotions primaires comme la peur, la colère ou la joie apparaissent au cours de la première année de la vie de l’enfant. Même ces émotions peuvent être considérées comme sociales car elles émergent dans des situations qui sont influencées par l’entourage familial.

Les émotions liées à la conscience de soi comme l’embarras, la honte, la culpabilité, ou encore l’empathie, la fierté, font leur apparition au cours de la deuxième année de la vie de l’enfant. Elles requièrent la capacité cognitive d’autoréflexion et de représentation mentale du « moi ». Pendant sa troisième année de vie, l’enfant commence à assimiler les normes, les règles et les objectifs fixés par les personnes de son entourage. Cette capacité l’amène à vivre sous des formes plus pondérées les émotions telles que l’embarras ou la culpabilité mais aussi la colère ou la peur. Ce que l’enfant apprend pendant les premières années de sa vie le rendra capable d’anticiper et d’interpréter le comportement affectif d’autrui, et de prévoir une réponse en interaction.

Avons-nous besoin d'une loi éthique universelle ou de règles d'usages ?

Nous avons besoin de règles d’usages et d’accords universels. Il faut avoir conscience que la démarche biomimétique peut brouiller la frontière entre un être vivant et un artefact. Il serait utile de consulter un comité opérationnel d’éthique national au cas par cas pour contrôler les implications de ce brouillage. Ce comité n’existe malheureusement pas pour l’instant.

 

[1] L. Devillers, « Des robots et des hommes: mythes, fantasmes et réalité », Plon 2017.

[2] Éthique III, prop. 9, scolie.

[3] Rapport sur l’Ethique du chercheur en robotique, CERNA, 2014.

Propos recueillis par Delphine Sabattier, professeure en Intelligence Artificielle à Sorbonne Université et chercheuse au LIMSI-CNRS​, auteur Des robots et des hommes : mythes, fantasmes et réalité (Plon, 2017).

 

Photo : Till Eisenberg, chef du projet Cimon, présente le robot assistant dans des locaux d'Airbus le 22 février 2018 en Allemagne © Felix Kästle/dpa/via AFP

Pour pour les fêtes, offrez un abonnement au Nouveau Magazine littéraire !