Sections

Des applis numériques pour lutter contre la pandémie: quels problèmes éthiques ?

Dossier
Paru le 23.06.2020
Covid-19: anatomie d'une épidémie

Des applis numériques pour lutter contre la pandémie: quels problèmes éthiques ?

24.04.2020, par
Traçage, vidéosurveillance, reconnaissance faciale… Comment concilier urgence sanitaire et garde-fous éthiques dans le domaine du numérique ? Un consortium éthique international vient d’être créé sur le sujet. Entretien avec Jean-Gabriel Ganascia, président du Comité d’éthique du CNRS, expert en intelligence artificielle et membre du consortium.

  
Vous venez de publier, le 15 avril dernier, la première déclaration du consortium éthique international sur l’utilisation des données et de l’intelligence artificielle pour lutter contre la pandémie de Covid-19. En quoi est-ce une priorité ?

Jean-Gabriel Ganascia1 : Face aux développements, dans l’urgence, de technologies numériques destinées à endiguer la pandémie, de nombreuses questions éthiques se posent quant à leur utilisation à court et long terme. Ce consortium permet de réunir des chercheurs du monde entier autour de problématiques éthiques, comme celles suscitées par le traçage des personnes contagieuses. Notre objectif est de faire un inventaire de ces technologies et de les évaluer au plan éthique. Le projet a été initié par Christoph Lütge, spécialiste de l’éthique de l’intelligence artificielle à l’Université technique de Munich.

Avec huit co-signataires éthiciens du monde entier, vous insistez sur le fait qu‘il est essentiel de considérer dès maintenant les ramifications éthiques impliquées par les déploiements du numérique et de l’intelligence artificielle. Mais cette déclaration d’intention du consortium ne peut avoir de valeur décisionnaire, n’est-ce pas ?
J.-G. G. :
En effet
, les décisions sur l’usage de beaucoup de ces technologies sont politiques et elles seront prises par les États. Différentes applications sont envisagées, par exemple, dans le domaine scientifique, pour modéliser la pandémie ou pour traiter les données médicales ou encore pour assurer le suivi des porteurs du virus au moment du déconfinement. Et ces dispositifs de surveillance effraient. Je pars du principe que si l’on connaît la technologie employée et les problèmes éthiques qu’elle soulève, alors nous pouvons, en amont, envisager des solutions pour rétablir la confiance, par exemple en protégeant la vie privée. Il faut adopter là une éthique de responsabilité. Cela ne signifie nullement que l’on abandonne nos convictions morales et démocratiques, mais cela veut dire que celles-ci doivent être mises en regard des nécessités de protection de la population dans le contexte actuel.
 

Face aux développements, dans l’urgence, de technologies numériques destinées à endiguer la pandémie, de nombreuses questions éthiques se posent quant à leur utilisation à court et long terme.
Face aux développements, dans l’urgence, de technologies numériques destinées à endiguer la pandémie, de nombreuses questions éthiques se posent quant à leur utilisation à court et long terme.

Tracer les porteurs du Covid-19 via leurs téléphones portables est la solution la plus médiatisée en France. Elle doit bientôt faire l’objet d’un débat, initialement prévu le 28 avril mais finalement repoussé, à l’Assemblée nationale. Quels en sont les risques éthiques ?  
J.-G. G. : On parle de tracking ou traçage. L’idée est de se signaler volontairement comme porteur du virus à une application. L’application enverra ensuite un message à toutes les personnes que l’on a croisées pour les alerter des risques de contamination, les inciter à rester chez elles et à réaliser un test de dépistage. Ce qui peut faire peur d’un point de vue éthique, c’est la dissémination des données personnelles et l’intrusion dans la vie privée.

Certaines techniques de traçage reposent sur le Bluetooth tandis que d’autres recourent à la géolocalisation par GPS.  Pourquoi cette dernière option pose-t-elle problème ?
J.-G. G. : Le GPS pose à la fois des problèmes éthiques et technologiques car le suivi permet de localiser approximativement tous les déplacements des personnes. Il inquiète beaucoup parce qu’il enregistre tous les mouvements. Mais on doit rappeler que toute personne qui allume son smartphone est déjà tracée au quotidien. Par ailleurs, d’un point de vue purement technique, la résolution du GPS étant d’une dizaine de mètres, cela entrainera de fausses alertes.
 

L’avantage du Bluetooth est qu’il ne localise pas directement le téléphone de quelqu’un, mais qu’il détecte et enregistre ses contacts rapprochés avec d’autres personnes l'ayant activé aussi.

C’est l’utilisation du Bluetooth qui a le vent en poupe aujourd’hui. L’avantage est qu’il ne localise pas directement le téléphone de quelqu’un, mais qu’il détecte et enregistre ses contacts rapprochés avec d’autres personnes ayant activé, elles aussi, leur Bluetooth. Ce sont des applications dites de « suivi de contacts ». Reste que la technologie Bluetooth, qui n’est pas conçue pour mesurer les distances, pose encore question, notamment sur sa capacité à atteindre le degré de précision nécessaire. Inria est en train de mener des tests à ce sujet dont on ignore encore l’issue comme le précisait le secrétaire d’État au numérique, Cédric O, le 14 avril dernier lors d’une audition devant la commission des lois du Sénat tenue par visioconférence.

Avec le Bluetooth, les personnes ne sont certes pas localisées mais elles pourraient quand même être identifiées, n’est-ce pas ? Dès lors, quels prérequis sont indispensables, selon vous, pour utiliser cette technologie de manière éthique ?
J.-G. G. : L’État s’est engagé à protéger la vie privée au cours du traçage. Pour satisfaire cette contrainte, il faudra empêcher de retrouver l’identité du propriétaire du téléphone. C’est possible en mettant en place des techniques de cryptographie : l’application n’enregistre pas le nom du porteur du téléphone mais un identifiant, généré automatiquement et crypté, qui ne permettra pas de remonter à lui. Seul un minimum de données devront être recueillies, avec un accès limité. Bien sûr, cela présuppose que l’État s’en porte garant, et qu’on lui fasse confiance. Autre prérequis essentiel : que tous les utilisateurs soient volontaires et adhèrent à la technologie.

Ce « contrôle » des citoyens resterait-il démocratique ? Et serait-il appliqué avec les mêmes exigences éthiques partout dans le monde ?
J.-G. G. :
Je suis convaincu que l’on peut trouver des solutions technologiques pour freiner la propagation de l’épidémie sans mettre de côté nos valeurs démocratiques, notamment grâce à une cryptographie efficace.

 

Je suis convaincu que l’on peut trouver des solutions technologiques pour freiner la propagation de l’épidémie sans mettre de côté nos valeurs démocratiques, notamment grâce à une cryptographie efficace.

Les pays autoritaires affirment le contraire. Selon eux, nous ne serons pas en mesure d’endiguer l’épidémie sans y renoncer. C’est un défi politique qu’il faut absolument relever. En Chine, les technologies ont été très intrusives. L'utilisation de l'apprentissage profondFermerClasse d'algorithmes d'apprentissage automatique supervisé, sans production explicite de règles. C'est pourquoi on les qualifie souvent de « boîte noire » : la raison pour laquelle l'algorithme parvient au résultat est inconnue (ou deep learning) pour prédire la maladie, au vu des symptômes présentés, par exemple de la température, ou simplement du comportement et des autres personnes fréquentées, pose bien des problèmes d’ordre éthique. Outre l’exclusion très forte qui en découle, les résultats sont très peu fiables. Nombreux sont ceux qui se sont vu exclus sur la foi d’informations approximatives.

La Chine a également adopté de nombreuses méthodes de reconnaissance faciale et de vidéosurveillance. Pourquoi ?
J.-G. G. : En Chine, ces techniques sont directement liées au « crédit social » (chaque personne a une « note » !) établi dans certaines grandes villes à partir du comportement individuel. La reconnaissance faciale et la reconnaissance de posture y prennent une part importante. Les techniques d’apprentissage machine, déployées pour anticiper la possibilité d’être atteint par le Covid-19, se fondaient en partie sur ce type de données. On a aussi utilisé des caméras infrarouges pour mesurer la température et en tirer la conclusion que certains étaient malades. Ces prédictions sont peu fiables, d’où le problème éthique. De même, on a recouru à la vidéosurveillance couplée à la reconnaissance faciale pour s’assurer que les personnes contagieuses ont bien respecté le confinement.

Ces techniques d’imagerie sont-elles envisageables en France ?
J.-G. G. : C’est une intrusion extrêmement forte dans l’intimité individuelle. De plus, ces techniques demandent de disposer de plusieurs images par personne. Or, aujourd’hui, en France, l’État ne les a pas en sa possession. Tout au mieux il dispose des photos d’identité d’une qualité insuffisante. Pour acquérir ces images, l'État pourrait faire appel aux réseaux sociaux, mais cela le mettrait sous leur dépendance. De plus, la loi ne l’autorise pas. On pourrait imaginer une grande campagne d’acquisition, mais cela prendrait du temps et demanderait de changer la législation. De plus, l’investissement étant assez conséquent, on pourrait craindre qu’une fois déployées, ces techniques soient réutilisées à maintes reprises. En somme, pour toutes ces raisons, à la fois techniques, économiques et éthiques, je crois qu’il est difficile d’imaginer qu’on les déploie en France pour résoudre la crise du Covid-19.
 

Un conducteur scannant un QR code sur une application locale de traçage dans le cadre de la lutte contre le Covid-19, à Zouping, en Chine, le 18 février 2020.
Un conducteur scannant un QR code sur une application locale de traçage dans le cadre de la lutte contre le Covid-19, à Zouping, en Chine, le 18 février 2020.

Si chacun doit renseigner son état de santé, qu’en est-il du secret médical ?
J.-G. G. : C’est une question importante qui s’est déjà posée lors de l’épidémie de VIH. À l’époque, il avait été décidé de ne pas déroger au secret médical, de ne pas dévoiler le statut sérologique, au risque parfois d’observer des contaminations au sein même d’un couple par exemple. Concernant le traçage, tant que la personne n’est pas identifiée nommément grâce à la cryptographie, je ne crois pas que le secret médical soit dévoilé. La personne à proximité recevra simplement une alerte, sans savoir de qui il s’agit.

Dans quelle mesure l’urgence sanitaire peut-elle permettre que l’on s’affranchisse de nos libertés individuelles ? 
J.-G. G. : Au-delà du numérique, le confinement est certainement la plus grande atteinte à nos libertés individuelles ! En matière de santé publique, l’État a le devoir de protéger ses citoyens. Tout est une question d’équilibre. L’éthique, c’est vrai, entraine souvent des positions inconfortables. Par exemple : décider de qui peut, ou non, recevoir des masques. Sans tomber dans une vision utilitaristeFermerL'utilitarisme est une doctrine en philosophie et en éthique qui prescrit d'agir de manière à maximiser le bien-être collectif. Par exemple, au sujet de la voiture autonome, une logique utilitariste pourrait consister dans certaines situations à sauver le plus de personnes possible quitte à sacrifier le ou les passagers du véhicule., les conséquences de nos décisions, du nombre de personnes exposées par exemple, comptent forcément. Elles éclairent les choix. De ce fait, dans leur élaboration, les scientifiques jouent un rôle fondamental. Toute réflexion éthique que nous mènerons sur ces outils devra être conduite au cas par cas, pour chaque technologie.

La souveraineté sur nos données est-elle assurée ?
J.-G. G. : Une des questions éthiques fondamentales est effectivement celle de la souveraineté. À qui va-t-on faire appel pour traiter ces données ? L'État ou des entreprises étrangères privées ? Et, les données seront-elles centralisées et, dans cette éventualité, où ? On sait déjà que l’application de suivi de contacts StopCovid, actuellement étudiée par le gouvernement utilise la technologie Bluetooth et le protocole ROBERT conçu en collaboration entre Inria et Fraunhofer, ce qui est en soi un gage important, car ce sont des organismes publics de recherche européens.
 

À qui va-t-on faire appel pour traiter ces données ? L’État ou des entreprises étrangères privées ? (...) On sait déjà que StopCovid utilise un protocole conçu par des organismes publics de recherche européens.

De leur côté Apple et Google proposent une « brique logicielle » qui pourrait s’intégrer dans les systèmes d’exploitation des téléphones portables. L’identité des personnes serait-elle protégée comme l’assurent ces sociétés privées ? Rien n’est moins sûr. Il faudra donc évaluer cette protection et y veiller avec attention. De manière générale, la gestion des données médicales de la population par des acteurs externes pose problème car celles-ci risquent d’être utilisées à des fins commerciales et nous être ensuite revendues. La question s’est concrètement posée lorsque Palantir, société américaine en partie financée par la CIA, a voulu se positionner sur la gestion des données de l’AP-HP. Une proposition écartée par les hôpitaux de Paris.

Comment garantir au citoyen une utilisation proportionnée des données par l’État ?
J.-G. G. :
Si c’est l’État français qui gère ces données, leur utilisation sera contrôlée par la représentation nationale. Et des lois sont d’ores et déjà établies pour limiter les abus. À l’inverse, les acteurs privés sont beaucoup plus difficiles à réguler, notamment parce qu’ils ont des capacités économiques très importantes et qu’ils échappent en partie à la législation nationale. Quoi qu’il en soit, il faudra s’assurer que les éventuelles dérogations à la protection des données personnelles demeurent exceptionnelles, limitées à la période de crise et proportionnées.

Pour en savoir plus, rendez-vous sur le site du Consortium éthique international sur l’utilisation des données et de l’intelligence artificielle pour lutter contre la pandémie de Covid-19 (GAIEC), et sur le site de Sorbonne-Université.

Notes
  • 1. Jean-Gabriel Ganascia est Président du Comets (comité d’éthique du CNRS) et Professeur à Sorbonne Université. Chercheur au LIP6 (Unité CNRS/Sorbonne Université), expert en intelligence artificielle, apprentissage machine et sciences cognitives, il est aussi spécialiste en philosophie computationnelle, humanités numériques et éthique des nouvelles technologies.

Commentaires

0 commentaire
Pour laisser votre avis sur cet article
Connectez-vous, rejoignez la communauté
du journal CNRS