SURVEILLANCE DE MASSE ET DEMOCRATIE

Contre le Covid-19, outils de surveillance de masse et conséquences pour les libertés,

Tribune

L’emploi d’outils de surveillance de masse contre le Covid-19 pourrait avoir des conséquences désastreuses pour les libertés, analysent trois chercheurs de Harvard, dans une tribune au « Monde », appelant à définir les droits et devoirs fondamentaux dans le monde numérique.

Publié le 26 mars 2020

La crise du coronavirus met sous pression notre quotidien, notre travail, nos relations sociales. Elle ébranle aussi l’idée de démocratie et de liberté : qui aurait pensé que se promener dans la rue puisse devenir, du jour au lendemain, interdit, passible d’amende ? Plus encore, qui aurait cru qu’une telle mesure soit plébiscitée et même, pour un nombre considérable de Français en quête d’autorité, jugée insuffisamment stricte ? En quelques heures, des habitudes et croyances que l’on pensait profondément ancrées ont été renversées.

Les impératifs de santé publique ont percuté des principes démocratiques aussi fondamentaux que la liberté d’aller et venir. Tout porte à croire qu’ils rentreront aussi en conflit avec la protection de la vie privée. En Europe, la République tchèque a annoncé la première son intention de déployer un outil de localisation puissant, intrusif, utilisant les données de localisation des téléphones portables pour suivre les mouvements des porteurs de virus, afin de tracer les contacts que cette personne a eus et freiner la propagation de la pandémie. L’Allemagne, l’Italie, le Royaume-Uni ont exprimé un intérêt similaire. Emmanuel Macron vient d’engager cette discussion en France.

L’idée de déployer des outils de surveillance de masse réveille évidemment des craintes d’utilisation abusive, d’excès de pouvoir de ceux qui détiendront ces données, et de conséquences potentiellement désastreuses pour les libertés publiques. De tels dispositifs iraient contre ce que nous avons voulu construire depuis l’avènement du numérique pour nous prémunir du spectre d’une surveillance totalitaire. Les lois sur la privauté des données personnelles, pour lesquelles l’Europe fait figure d’exception dans le monde, sont le reflet de cette culture européenne.

Outils de surveillance de masse exceptionnels

Le virus sera présent plus longtemps que le confinement ne sera supportable. Il faudra donc bien imaginer des dispositifs permettant de regagner de la flexibilité de mouvement. Le plus probable est que cela passera par une combinaison de tests médicaux généralisés et de technologie de suivi personnalisé. Ce modèle a fait ses preuves : la Corée du Sud, Singapour, Hongkong ont tous réussi à résorber la pandémie sans confinement prolongé (parfois sans confinement du tout). Si nous devons choisir, dans quelques semaines, entre l’effondrement économique et sociétal dû à un arrêt prolongé du pays, ou accepter des dispositifs de suivi que nous aurions refusés en temps normal, que ferons-nous ?

Il n’y a pas de réponse univoque à cette question : nous allons vers des terrains inconnus de l’utilisation des technologies dans nos sociétés. Le pire serait, sous la pression de l’urgence, de s’engager précipitamment dans une voie sans en avoir précisé les conditions ou s’être assuré que nous en maîtrisons les conséquences. Quelques principes pourraient guider la réflexion.

• D’abord, ces dispositifs devraient être temporaires et réversibles. L’état d’exception n’est pas censé survivre une fois la crise contenue. Il ne s’agit pas de « normaliser » des outils de surveillance de masse : ceux-ci doivent rester anormaux, c’est-à-dire exceptionnels. Dès leur conception, les conditions de leur extinction doivent être clairement programmées. Il y aura des pressions pour utiliser les données collectées, qui auront une valeur immense, pour d’autres objets – y compris pour le bien commun, par exemple pour améliorer les transports, les infrastructures de soin… Par principe, sauf à démontrer un intérêt public considérable, la réponse devrait être négative. C’est une question de confiance.

• Ensuite, ces dispositifs devraient être strictement proportionnés. Pour tracer les contacts potentiellement infectés, la Corée du Sud collecte non seulement les données personnelles de locations cellulaires et GPS, mais aussi les données de transports publics, de cartes de crédit, les dossiers d’immigration… L’utilité de chaque donnée devrait être strictement démontrée au regard de l’objectif de juguler l’épidémie, ainsi que le champ recherché. Il ne saurait ainsi être question de collecter des données GPS des trois derniers mois pour lutter contre un virus ayant une période d’incubation de deux semaines.

• De même, tout n’est pas acceptable sous prétexte d’une meilleure efficacité. La Chine va beaucoup plus loin : ses citoyens doivent télécharger une application qui agglomère les données de leur téléphone avec les données de santé de l’individu, attribuant à chaque personne un code de couleur qui reflète leur état de santé (vert, jaune ou rouge). Pour rentrer dans un centre commercial, prendre un train, il faut scanner un QR Code généré par le téléphone. Sur la base de ces données, un algorithme détermine si la personne peut entrer dans les espaces publics ou si elle doit être mise en quarantaine – auquel cas, le logiciel envoie les informations à la police locale. Si l’utilisation de l’intelligence artificielle ne peut être exclue par principe pour juguler la pandémie, il ne saurait être question d’entrer dans un tel niveau de contrôle social, ni de déléguer à des algorithmes des décisions sans appel de confinement individuel.

Le consentement individuel ne suffit pas : il s’agit d’une question politique, d’un choix collectif à faire pour assurer le fonctionnement d’une communauté humaine.

• Enfin, et ce n’est pas la moindre des leçons, il faudra se demander pourquoi nous devons improviser des principes d’exception en matière de données personnelles et de surveillance en pleine crise. Il s’agit, en fait, d’un problème structurel : les grands textes de droits fondamentaux régissant les principes démocratiques et l’équilibre entre libertés individuelles et nécessités collectives s’appliquent très mal dans le monde numérique. Les Européens ont entrepris de combler cette lacune, imparfaitement, en supposant que chacun serait capable de contrôler ses propres données (et d’en autoriser ou non l’accès). Les questions qui se posent aujourd’hui montrent que cette approche est incomplète. L’argument pour de possibles dispositifs de surveillance est précisément de devoir faire la balance entre le nécessaire respect de la vie privée et les obligations mutuelles que nous avons, en société, les uns envers les autres – en l’occurrence, ne pas contaminer les autres. Pour cela, le consentement individuel ne suffit pas : il s’agit d’une question politique, d’un choix collectif à faire pour assurer le fonctionnement d’une communauté humaine.

Cet angle mort du cadre de protection des données devrait nous interpeller. Ces dernières années, plusieurs voix se sont élevées à travers le monde – dont celle du président de la République – pour appeler à un effort international visant à définir les droits et devoirs fondamentaux dans le monde numérique – un Digital Bill of Rights. Appeler à reprendre sérieusement cet effort après la crise montrerait que nous ne nous engageons pas à l’aveugle dans ces dispositifs, sans nous soucier de leurs conséquences à long terme sur l’équilibre de nos sociétés.

Adrien Abecassis, chercheur associé à l’université Harvard (Kennedy School of Government) ; Dipayan Ghosh, codirecteur du projet Technology and Democracy à l’université Harvard (Kennedy School of Government), et Jack Loveridge, chercheur associé à l’université Harvard (Weatherhead Center for International Affairs)

Posts récents

Voir tout

Le Léviathan est de retour

Pankaj Mishra, essayiste, romancier et journaliste indien. “Nous vivons une période extraordinaire. […] Le coronavirus indique une transformation radicale, du type qui ne se produit qu’une fois par si

CONTACTS
SUIVRE LES ACTUALITÉS DE LA FONDATION

Fondation Clarens

Fondation de France

40 avenue Hoche
75008 Paris

contact@fondationclarens.org

© 2019 Fondation Clarens