Sections

Real Humans revu par les chercheurs (2)

Real Humans revu par les chercheurs (2)

12.06.2014, par
Real Humans, saison 2
Les robots auront-ils des droits ? Devront-ils ressembler aux êtres vivants ? Quand laisser les machines prendre des décisions ? Dans ce 2e article inspiré par la série Real Humans, réflexions sur l’éthique en robotique.

La série télévisée Real Humans n’a pas passionné les roboticiens parce qu’elle…ne parle pas de robotique ! Ou très peu. « Cette série traite plutôt des humains à travers les robots », commente Raja Chatila, directeur de l’Institut des systèmes intelligents et de robotique1. Comme toute œuvre d’anticipation, la série s’applique en effet à nous faire cogiter sur nous-mêmes et sur la société. Elle regorge ainsi de considérations philosophiques sur l’esclavage (auquel les machines sont « réduites »), sur le racisme, l’homophobie, et le rejet de l’autre en général. L’autre étant incarné par les fameux hubots (human robots).

« Ces machines sont extrêmement loin de la réalité ou même d’un futur éventuel, et je trouve dommage que la série donne au final une vision si négative de la robotique », reprend Raja Chatila. Le chercheur fait partie de la Commission de réflexion sur l’éthique de la recherche en sciences et technologies du numérique d’Allistene2 : la Cerna. Il y anime un groupe de travail dédié à la robotique. « Nous discutons par exemple des réactions que les machines pourraient provoquer chez les gens quand elles ressemblent à des êtres vivants, explique-t-il, ou encore des limites à donner aux robots capables de prendre des décisions. » Les recommandations de ce groupe s’adresseront aux chercheurs qui concevront les robots de demain.

Même si elle est très pessimiste, irréaliste, Real Humans illustre certains cas où l’éthique pourrait pointer le bout de son nez. Raja Chatila a accepté de les commenter avec nous. Premier point : le droit des robots.

Pas de droits pour les robots

Alors qu’une bande de hubots rebelles hante nos téléviseurs, quelques avocats bien réels prétendent en effet que les robots devraient un jour jouir de droits. Et être responsables de leurs actes. « C’est absurde…, répond Raja Chatila. Prenons le cas d’un avion en mode “atterrissage automatique” et qui s’écrase : personne ne songe à incriminer le système automatique lui-même et à engager sa responsabilité pénale… » Dans ces cas-là, une enquête est menée sur les causes de l’accident afin d’établir une chaîne de responsabilités : du constructeur du système (qui pourrait l’avoir mal conçu), à la société qui l’a installé (en respectant ou non les recommandations), au pilote qui l’a déclenché (à tort ou à raison selon les conditions de vol), et ainsi de suite.
 
« Pour des robots, même très évolués, ça serait la même chose », poursuit Raja Chatila. En cas d’accident, il faudra étudier qui les a programmés, achetés, mis en service, etc. Ce sont ces chaînes de responsabilités, 100 % humaines, que le futur droit des robots devra affiner. « Mais donner des droits AUX robots est un non-sens total. Ceux qui en parlent cherchent une notoriété à peu de frais. Une machine ne peut pas être comparée à un être vivant. Il n’y pas plus lieu de donner des droits aux robots qu’aux tables ou aux étagères. »

Des machines douées de conscience ?

Bien sûr, la donne change si les robots obtiennent un jour conscience et libre-arbitre. Les hubots télévisés en sont tout proches... Et dans la réalité ? « Vous savez, on ne sait même pas définir la conscience chez les êtres humains, sourit Raja Chatila. On peut imaginer que nous arrivions un jour à construire une machine si perfectionnée que ses faits et gestes, vus de l’extérieur, laissent croire qu’elle possède une conscience. » Une machine qui aurait une volonté, des projets, qui prenne des initiatives. « Mais cela ne suffirait pas… »
 
Qu’en est-il des sentiments ? Une machine pourra-t-elle en ressentir un jour ? « Je ne crois pas. Je peux programmer une machine pour sourire ou pour faire “aïe” si je la bouscule. Nous projetterons alors notre humanité sur ces comportements, nous y verrons des émotions qui sont le reflet des nôtres, mais ils resteront des actions mécaniques, des résultats de programmes et de calculs. »

Real Humans surfe allégrement sur ce type de projections. Les états d’âme de Toby, ado amoureux d’une hubote, ont vraiment tout du coming-out difficile. Tandis que Florentine/Flash parvient à se faire passer pour une humaine. Même lorsqu’il découvre la vérité, son fiancé de chair et d’os tient à convoler en justes noces… « Notre commission réfléchit beaucoup aux risques de confusion entre le vivant et le non-vivant », commente le chercheur. Alors, les robots du futur devront-ils nous ressembler ? Et avoir un comportement laissant penser qu’ils ont des émotions ? Est-il éthique de donner aux gens l’illusion qu’ils ont en face d’eux autre chose qu’une machine ? Et de les pousser à s’attacher à elle ?

Ne pas mentir à l’utilisateur

« J’estime que les utilisateurs doivent avoir parfaitement conscience qu’il ne s’agit que d’objets, répond Raja Chatila. Sinon, cela pourrait les rendre dépendants et risquerait de les affaiblir plus encore s’ils sont déjà en situation de faiblesse (personnes âgées, handicapées, etc.). » Par exemple, mieux vaut éviter les chagrins incommensurables et autres réactions inappropriées si un robot de compagnie se casse...
 
Ce type de questions commence déjà à se poser. Dans un appartement-test équipé par un laboratoire à Grenoble, des personnes âgées se sont en effet mises à discuter avec des robots prototypes chargés de fermer les volets. Citons aussi Pepper, dernier né d'Aldebaran Robotics, présenté comme « attachant et bienveillant », et son petit frère NAO, « véritable compagnon au quotidien » dont la forme humanoïde et l'nteractivité le rendent « très attachant et créateur d’émotions », indique la publicité. « Cette machine prétend être spéciale. Tout est fait pour qu’on la prenne pour un être vivant. C’est différent de l’attachement que nous portons à nos lecteurs MP3 ou à nos smartphones dont nous connaissons parfaitement la nature inerte », souligne Raja Chatila.
 
« Les fabricants de robots et les futurs utilisateurs sont libres bien sûr, mais du côté de la recherche, la Cerna réfléchit à des préconisations », signale le chercheur. Par exemple, on pourrait s’interroger sur l’utilité de mimer le vivant : un robot condamné à la corvée de vaisselle aura-t-il vraiment besoin de ressembler à un être humain ?

Des robots qui décident seuls

Question autonomie et capacité à prendre des décisions, Real Humans grouille aussi d’exemples. C’est le cas de Vera, la matrone-hubote chargée de veiller sur Lennart, le grand-père de la série, et qui lui administre un calmant à son insu ! Ou bien de Rick, hubot soupe au lait qui rechigne à lever le bras sous lequel se cache son bouton marche/arrêt. Et qui devient difficile à éteindre au fil des épisodes…
 

 
« Les robots qui feront éventuellement partie de notre quotidien n’auront ni conscience ni malice, bien sûr. Mais je pense qu’il faudrait tout de même qu’une information indiquant l’état de la machine soit disponible en permanence, commente Raja Chatila, afin que les décisions ne soient jamais prises à l’insu de l’opérateur. » Ensuite se pose le problème du partage de l’autorité. Par exemple, même si ce ne sont pas des robots autonomesFermerOn parle en général d’une machine capable de se déplacer, de percevoir son environnement, de s’y adapter s’il se modifie, de prendre des décisions, d’accomplir une mission sans intervention humaine, etc. Mais la notion d’autonomie fait débat en robotique., les logiciels qui enchérissent à la Bourse ou les pilotes automatiques des avions prennent déjà des décisions sans intervention humaine. Or « des études, réalisées notamment dans le contexte de l’aviation, montrent que nous avons une confiance exagérée dans la machine en général ». Sans doute parce que sa capacité d’analyse des situations, via une grande quantité de paramètres, est plus rapide que la notre. « Au final, l’être humain renonce souvent au contrôle qu’il devrait exercer. Il considère que la machine a raison et a sans doute “vu” plus de choses que lui », explique le roboticien. Une machine peut pourtant se tromper et ses circuits électroniques, tomber en panne...

« Il faut donc réfléchir à la reprise en main que l’utilisateur peut effectuer au détriment de la machine et inversement », reprend le chercheur. Quand doit-elle être possible, voire obligatoire ? La question se profile notamment pour les voitures autonomes, capables de rouler sans conducteur, et actuellement à l’état de prototype. « Ces véhicules pourraient détecter des obstacles que vous n’auriez pas vus, mais l’inverse est aussi possible : comment prévoir qui doit prendre la main ?, questionne-t-il. Il faut justement définir des règles pour que l’utilisateur puisse être informé des conditions de fonctionnement et des limites des systèmes avec lesquels il interagit. »

Des lois pour les fabricants et les utilisateurs ?

Voitures, robots et autres machines autonomes, peut-être faudra-t-il élaborer un jour de véritables lois, à destination de tous, des fabricants comme des citoyens-utilisateurs. Mais, pour l’instant, c’est le flou qui règne. « Les prises de conscience dans le domaine de l’éthique peuvent prendre du temps avant d’être suivies de lois. L’abolition de l’esclavage a par exemple pris des siècles… En robotique, le passage de la réflexion éthique au domaine juridique pourrait prendre des décennies », conclut le chercheur.

Lire aussi le premier volet de notre série d’articles : Real Humans revu par les chercheurs (1)

Notes
  • 1. Unité CNRS/UPMC.
  • 2. Alliance des sciences et technologies du numérique. Elle regroupe la CDEFI, le CEA, le CNRS, la CPU, Inria et l’Institut Télécom (membres fondateurs) ainsi que l’Inra, l’Inrets et l’Onera (membres associés).
Aller plus loin

Auteur

Charline Zeitoun

Journaliste scientifique, auteur jeunesse et directrice de collection depuis quinze ans, Charline Zeitoun est actuellement Chef de rubrique à CNRS Le journal. Ses sujets de prédilection sont ceux de la rubrique Société, surtout quand ils se trouvent au croisement avec d'autres disciplines scientifiques. Et le cinéma, le cinéma, le cinéma !

Elle a été rédactrice à Science & Vie...

Commentaires

0 commentaire
Pour laisser votre avis sur cet article
Connectez-vous, rejoignez la communauté
du journal CNRS